Noticias
OpenAI contrata a un ejecutivo de seguridad de Palantir mientras se presenta cada vez más al Pentágono
Published
7 meses agoon

Hola y bienvenido a Eye on AI. En esta edición…OpenAI se apoya en sus ambiciones militares; Amazon también se vuelve nuclear; Mistral lanza modelos de IA para portátiles y teléfonos; y las empresas de IA no cumplen con la evaluación del cumplimiento de la UE.
OpenAI ha estado desangrando a ejecutivos y a los mejores talentos, pero esta semana realizó una gran contratación. Bueno, un par de ellos. En el boletín del martes, Jeremy cubrió la contratación del destacado investigador de inteligencia artificial de Microsoft, Sebastian Bubeck. Pero hoy quiero hablar sobre una contratación diferente esta semana: Dane Stuckey anunció en X que se unirá a la compañía como su nuevo director de seguridad de la información (CISO) después de una década en Palantir, donde trabajó en el equipo de seguridad de la información y fue más recientemente CISO.
Para muchos en el mundo de la tecnología, cualquier mención de Palantir genera señales de alerta. La firma secreta, cofundada por Peter Thiel y llena de contratos militares, ha sido objeto de un intenso escrutinio a lo largo de los años por sus tecnologías de vigilancia y vigilancia policial predictiva, asumiendo el controvertido Proyecto Maven que inspiró huelgas en Google y su contrato de larga duración con El Servicio de Inmigración y Control de Aduanas (ICE) de EE.UU. para rastrear inmigrantes indocumentados.
En sí misma, la contratación de Stuckey podría ser simplemente eso: una nueva contratación. Pero se produce cuando OpenAI parece estar virando hacia el mundo de los contratos militares y de defensa.
El momento militar de OpenAI
En enero, OpenAI eliminó silenciosamente el texto de sus políticas de uso que prohibía el uso de sus productos para “militares y bélicos”. Una semana después, se informó que la empresa estaba trabajando en proyectos de software para el Pentágono. Más recientemente, OpenAI se asoció con Carahsoft, un contratista gubernamental que ayuda al gobierno a comprar servicios de empresas privadas rápidamente y con poca carga administrativa, con la esperanza de conseguir trabajo con el Departamento de Defensa, según Forbes.
Mientras tanto, esta semana la fortuna Kali Hays informó esta semana que el Departamento de Defensa tiene 83 contratos activos con varias empresas y entidades para trabajos de IA generativa, y los montos de cada contrato oscilan entre 4 y 60 millones de dólares. OpenAI no fue nombrado específicamente entre los contratistas, pero su trabajo puede quedar oculto a través de asociaciones con otras empresas que figuran como contratistas principales.
El modelo GPT-4 de OpenAI estuvo en el centro de una asociación reciente entre Microsoft, Palantir y varias agencias de inteligencia y defensa de EE. UU. Las entidades se unieron en agosto para poner una variedad de servicios de análisis e inteligencia artificial a disposición de las agencias de inteligencia y defensa de EE. UU. en entornos clasificados.
De todos los debates sobre cómo se debe y no se debe utilizar la IA, el uso con fines bélicos y militares es sin duda el más controvertido. Muchos, como el ex director ejecutivo de Google y figura destacada de la industria de defensa, Eric Schmidt, han comparado la llegada de la IA con la llegada de las armas nucleares. Los grupos de defensa han advertido sobre los riesgos, especialmente considerando los conocidos sesgos en los modelos de IA y sus tendencias a inventar información. Y muchos han reflexionado sobre la moralidad de las armas autónomas, que podrían cobrar vidas sin ninguna intervención o dirección humana.
El panorama general
Este tipo de actividades han demostrado ser un importante punto de inflamación para las empresas de tecnología. En 2018, miles de empleados de Google protestaron por la búsqueda de la compañía de un contrato con el Pentágono conocido como Proyecto Maven, temiendo que la tecnología que crean se usara con fines letales y argumentando que no se inscribieron para trabajar con el ejército.
Si bien OpenAI ha sostenido que seguirá prohibiendo el uso de sus tecnologías para armas, ya hemos visto que es una pendiente resbaladiza. La compañía no sólo permite, sino que también busca usos militares que prohibió por esta época el año pasado. Además, hay muchas formas preocupantes en las que se podrían utilizar los modelos para apoyar directamente operaciones militares mortales que no impliquen que funcionen directamente como armas.
No se sabe si la marcha de salidas de OpenAI este año está directamente relacionada en alguna parte con sus ambiciones militares. Si bien algunos de los que se marcharon expresaron su preocupación por la seguridad, la mayoría sólo ofreció forraje común en torno a la búsqueda de nuevas oportunidades en sus renuncias públicas. Lo que está claro, sin embargo, es que la OpenAI de 2024 y el futuro previsible es una empresa muy diferente a la que se unieron hace años.
Ahora, aquí hay más noticias sobre IA.
Sabio Lázaro
sabio.lazzaro@consultant.fortune.com
sagelazzaro.com
IA EN LAS NOTICIAS
AWS invierte 500 millones de dólares en energía nuclear para impulsar la IA. La unidad de computación en la nube de Amazon está llevando a cabo tres proyectos nucleares en Virginia y el estado de Washington, incluido un acuerdo con Dominion Energy, la empresa de servicios públicos de Virginia, para construir un tipo más pequeño y avanzado de reactor nuclear conocido como SMR. La compañía se une a otros gigantes tecnológicos, incluidos Google y Microsoft, que están invirtiendo en energía nuclear para impulsar sus servicios de inteligencia artificial generativa que consumen mucha energía. Dominion proyecta que la demanda de energía aumentará un 85% durante los próximos 15 años. CNBC informó.
Mistral presenta modelos de IA diseñados para ejecutarse en computadoras portátiles y teléfonos. La nueva familia de dos modelos, llamada Les Ministraux, se puede utilizar para tareas básicas como generar texto o podría vincularse a los modelos más potentes de las startups para ofrecer más casos de uso. en un publicación de blogMistral posiciona los modelos para satisfacer las solicitudes de los clientes de “chatbots sin Internet” e “inferencia local, priorizando la privacidad para aplicaciones críticas”.
El jefe de la Iniciativa de Código Abierto critica la apropiación por parte de Meta del término “código abierto”. Stefano Maffulli, director de Open Source Initiative, una organización que acuñó el término software de código abierto en la década de 1990 y es vista como la protectora del significado y la intención del término, le dijo al Tiempos financieros que Meta estaba confundiendo al público y “contaminando” el concepto de código abierto al etiquetar sus modelos de IA disponibles gratuitamente como “código abierto”. Los términos de licencia de estos modelos restringen algunos casos de uso y Meta no ha sido completamente transparente sobre los métodos de entrenamiento o los conjuntos de datos utilizados para crear su familia de modelos Llama.
FORTUNA EN LA IA
Una startup que quiere ser el eBay para los datos de IA recurre a los veteranos de Google y a un destacado abogado de propiedad intelectual para puestos clave—Por Jeremy Kahn
La ‘madrina de la IA’ quiere que todos tengan un lugar en la transformación tecnológica—Por Jenn Brice
“¿Por qué el elfo no? La marca de belleza construyó un modelo de inteligencia artificial para escribir comentarios en las redes sociales—Por Jenn Brice
El jefe de dispositivos de Amazon insinúa futuros productos “increíbles” de Alexa y presenta una serie de nuevos dispositivos Kindle en su debut público —Por Jason Del Rey
CALENDARIO DE IA
22 y 23 de octubre: TedAI, San Francisco
28-30 de octubre: Voz e IA, Arlington, Virginia.
19-22 de noviembre: Microsoft enciende, Chicago
Del 2 al 6 de diciembre: AWS re:Invent, Las Vegas
8-12 de diciembre: Sistemas de procesamiento de información neuronal (Neurips) 2024, Vancouver, Columbia Británica
9 y 10 de diciembre: Fortune Brainstorm AI, San Francisco (registrarse aquí)
OJO A LOS NÚMEROS DE IA
0,75
Esa es la puntuación promedio, en una escala de 0 a 1, otorgada a los modelos de IA desarrollados por Alibaba, Anthropic, OpenAI, Meta y Mistral en una evaluación para probar su cumplimiento con la Ley de IA de la UE, según datos publicados en Reuters. Las pruebas fueron realizadas por la startup suiza LatticeFlow AI y sus socios en dos institutos de investigación. Examinaron los modelos en 12 categorías, como robustez técnica y seguridad. Los funcionarios de la UE apoyan el uso de la herramienta LatticeFlow mientras intentan descubrir cómo monitorear el cumplimiento.
Si bien 0,75 fue la puntuación promedio aproximada en los distintos modelos y categorías, hubo muchas puntuaciones más bajas en categorías específicas. El GPT-3.5 Turbo de OpenAI recibió una puntuación de 0,46 en la evaluación que mide la salida discriminatoria, mientras que el modelo 8x7B Instruct de Mistral recibió 0,38 en las pruebas de seguridad para ataques de inyección rápida. Anthropic recibió la puntuación media general más alta: 0,89.
You may like
Noticias
Ranking de potencia de IA Rangings: OpenAi, Google Rise como Anthrope Falls, el informe de Poe encuentra
Published
8 horas agoon
13 mayo, 2025
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
El último informe de uso de Poe muestra que Openai y Google fortalecen sus posiciones en categorías clave de IA, mientras que Anthrope pierde terreno y capacidades de razonamiento especializadas emergen como un campo de batalla competitivo crucial.
Según los datos publicados hoy en día por Poe, una plataforma que ofrece acceso a más de 100 modelos de IA, se produjeron cambios significativos en la participación de mercado en todas las principales categorías de IA entre enero y mayo de 2025. Los datos, extraídos de suscriptores de POE, proporcionan una visibilidad rara de las preferencias reales de los usuarios más allá de los puntos de referencia de la industria.
“Como una puerta de entrada universal a más de 100 modelos AI, Poe tiene una visión única de las tendencias de uso en todo el ecosistema”, dijo Nick Huber, el líder del ecosistema de AI de Poe, en una entrevista exclusiva con VentureBeat. “Las cosas más sorprendentes que suceden en este momento son la rápida innovación (3 veces el número de lanzamientos en enero-mayo de 2025 frente al mismo período en 2024), un panorama competitivo cada vez más diverso y los modelos de razonamiento son la clara historia de éxito de principios de 2025.”
GPT-4O mantiene el dominio, mientras que los nuevos modelos capturan rápidamente la participación de mercado
En la generación de texto central, el GPT-4O de OpenAI mantuvo su posición al mando con el 35.8% de la participación en el mensaje, mientras que la nueva familia GPT-4.1 de la compañía capturó rápidamente el 9.4% del uso dentro de las semanas posteriores al lanzamiento. Gemini 2.5 Pro de Google logró de manera similar aproximadamente un 5% de participación en los mensajes poco después de su introducción.
Estas ganancias llegaron en gran medida a expensas de los modelos Claude de Anthrope, que vio una disminución absoluta del 10% en la participación durante el período de informe. El informe señala que el soneto Claude 3.7 ahora ha reemplazado sustancialmente el soneto Claude 3.5 anterior en preferencia del usuario, aunque este último aún mantiene una notable participación de uso del 12%.
Deepseek, que experimentó un crecimiento viral a principios de este año, ha visto su impulso lento a medida que los competidores han lanzado sus propios modelos de razonamiento asequibles y detallados. La participación de mensajes de Deepseek R1 disminuyó de un pico del 7% a mediados de febrero al 3% a fines de abril.
Las capacidades complejas de resolución de problemas se convierten en diferenciador clave en el mercado de IA
Quizás la tendencia más significativa identificada en el informe es el crecimiento dramático en modelos de razonamiento especializados, que se han expandido de aproximadamente el 2% al 10% de todos los mensajes de texto enviados en POE desde el comienzo de 2025.
“Los modelos de razonamiento, incluso en los primeros días, han demostrado una notable capacidad para manejar tareas complejas con una mayor precisión”, dijo Huber a VentureBeat. “Los primeros usuarios claramente están encontrando valor en esto y están dispuestos a asumir las compensaciones en el costo y el tiempo de procesamiento para mejores resultados”.
En este segmento de alto crecimiento, Gemini 2.5 Pro se ha establecido rápidamente como líder, capturando aproximadamente el 31% del uso del modelo de razonamiento dentro de las seis semanas de lanzamiento. Ahora lidera la categoría, antes de los modelos de razonamiento de Claude.
Operai continúa innovando rápidamente en este espacio, liberando múltiples modelos de razonamiento (O1-Pro, O3-Mini, O3-Mini-High, O3 y O4-Mini) solo en los primeros cuatro meses de 2025. El informe indica que los usuarios de POE rápidamente adoptan las ofertas más recientes de OpenAI, transición de modelos más antiguos como O1 a alternativas más nuevas como O3.
El informe también señaló la aparición de modelos de razonamiento híbrido, como la vista previa de Gemini 2.5 Flash y Qwen 3, que puede ajustar dinámicamente su nivel de razonamiento dentro de las conversaciones. Sin embargo, estos modelos actualmente representan solo alrededor del 1% del uso del modelo de razonamiento.
Los analistas de la industria sugieren que este cambio hacia las capacidades de razonamiento especializadas señala un mercado de IA en maduración donde la generación de texto sin procesar se está volviendo comercializado, lo que obliga a los proveedores a diferenciarse a través de capacidades de mayor valor que pueden obtener precios premium.
Los desafíos de Imagen 3 de Google establecieron jugadores en la arena visual de IA
El mercado de la generación de imágenes parece cada vez más competitivo, con la familia Imagen 3 de Google que crece constantemente de aproximadamente el 10% al 30% de participación durante 2025, ahora rivalizan con la familia de modelos de Flux Labs del líder de Black Forest Labs, que colectivamente mantuvo una participación colectiva a fines de abril.
El GPT-IMage-1 de Openai, se presentó a la API a fines de abril, alcanzó rápidamente el 17% del uso de la generación de imágenes en solo dos semanas, reflejando su adopción viral en la aplicación ChatGPT a lo largo de marzo y principios de abril.
El informe indica que los modelos de flujo mantuvieron su participación general de pluralidad en la generación de imágenes en POE, pero experimentó una disminución moderada de aproximadamente 45% a 35% durante el período de informe.
Esta competencia de tres vías entre Google, OpenAi y Black Forest Labs marca un cambio significativo desde principios de 2024, cuando las variantes de difusión de mediana edad y estable dominaron el espacio. La rápida mejora en la calidad de la imagen, la adherencia a las indicaciones y la velocidad de representación ha transformado esta categoría en uno de los campos de batalla de IA más ferozmente disputados.
La adopción empresarial de la generación de imágenes se ha acelerado sustancialmente en los últimos seis meses, según datos complementarios de la industria, con departamentos de marketing y agencias creativas integrando cada vez más estas herramientas en sus flujos de trabajo de producción.
El advenedizo chino Kling interrumpe el mercado de AI Video, desafiando el liderazgo temprano de Runway
En la generación de videos, la recién lanzada familia de modelos de Kling Lab Kuaishou ha interrumpido rápidamente el mercado, capturando colectivamente alrededor del 30% de participación de uso. En particular, Kling-2.0-Master alcanzó el 21% de toda la generación de videos en POE a fines de abril, solo tres semanas después de su lanzamiento.
VEO 2 de Google mantuvo una posición sólida con aproximadamente un 20% de participación después de su lanzamiento de febrero, mientras que la pista de pioneras de categoría vio una disminución sustancial de su participación de uso de aproximadamente 60% a 20% durante todo el período de informe.
La velocidad de la penetración del mercado de Kling resalta la rapidez con que el panorama competitivo puede cambiar en las categorías emergentes de IA, donde los jugadores establecidos pueden no mantener sus ventajas tempranas a medida que los recién llegados iteran y mejoran rápidamente.
La generación de videos sigue siendo la aplicación de IA de consumo más intensiva computacionalmente intensiva, con modelos que requieren una potencia de procesamiento significativa para crear clips cortos. Esto ha mantenido el uso más limitado que el texto o la generación de imágenes, pero se espera que los costos de caída rápida y la mejora de la calidad impulsen una adopción más amplia hasta 2025.
Los primeros usuarios empresariales incluyen agencias de publicidad, creadores de contenido de redes sociales y plataformas educativas que han comenzado a integrar videos generados por IA en sus estrategias de contenido a pesar de las limitaciones actuales de la tecnología.
ElevenLabs domina la IA de voz, mientras que los nuevos participantes se dirigen a casos de uso especializados
ElevenLabs continúa liderando la categoría de generación de audio, cumpliendo aproximadamente el 80% de las solicitudes de texto a voz de todos los suscriptores durante el período de informe. Sin embargo, el informe destaca la competencia emergente de los recién llegados Cartesia, un discurso irreal, playai y Orfeo, que ofrecen modelos diferenciados de opciones de voz, efectos y precios.
Este dominio del mercado de un solo jugador contrasta con la competencia más fragmentada en otras categorías de IA. Los expertos de la industria atribuyen el liderazgo continuo de ElevenLabs a su entrada temprana del mercado, una extensa biblioteca de voz y mejoras de calidad consistentes que han mantenido una ventaja técnica sobre los competidores.
Los participantes más nuevos están encontrando el éxito al atacar a los nichos de mercado específicos. Unreal Speech ha ganado tracción con los productores de podcasts y los editores de audiolibros al ofrecer actores de voz especializados y capacidades de rango emocional. Mientras tanto, Cartesia se ha centrado en voces multilingües con acentos auténticos, capturando el interés de las empresas globales y las plataformas educativas.
Se proyecta que el mercado de IA de audio crecerá sustancialmente a través de 2025 a medida que las capacidades de texto a voz se centran en la calidad humana y encontrar aplicaciones en el servicio al cliente, las soluciones de accesibilidad y la creación de contenido. Los requisitos computacionales relativamente bajos en comparación con la generación de videos permiten una implementación y experimentación más amplias.
Implicaciones estratégicas para las empresas que navegan por un paisaje de IA en constante cambio
La naturaleza dinámica del panorama del modelo AI presenta oportunidades y desafíos para las empresas que integran estas tecnologías.
“Puede ser un desafío mantenerse al día con lo último en IA y el ritmo solo está ganando velocidad”, dijo Huber a VentureBeat. “Si usted es un negocio que ya ejecuta la IA a escala, invertir en tuberías de evaluación robustas y agnósticas del proveedor es fundamental porque el modelo mejor este mes puede ser el segundo mejor el próximo mes”.
Esta volatilidad en las preferencias del modelo subraya el valor de plataformas como POE que ofrecen acceso a múltiples modelos a través de una sola interfaz, lo que permite a los usuarios comparar salidas y adaptarse al ecosistema de IA cambiante.
Los analistas de la industria sugieren que la creciente importancia de las capacidades de razonamiento puede indicar un cambio en cómo las empresas evalúan y implementan modelos de IA, con un enfoque creciente en la precisión y la confiabilidad para tareas complejas en lugar de solo velocidad o rentabilidad.
A medida que Frontier Labs continúa lanzando modelos más capaces a un ritmo acelerado, las empresas enfrentan decisiones difíciles sobre cuándo estandarizar en plataformas específicas en lugar de mantener la flexibilidad. Muchos líderes empresariales de IA están adoptando un enfoque de cartera, utilizando diferentes modelos para diferentes tareas mientras mantienen la capacidad de cambiar los proveedores a medida que evolucionan las capacidades.
“Este será un espacio importante para ver, especialmente entre los proveedores de fronteras, ya que representa lo mejor de lo que la IA puede lograr actualmente”, señaló Huber sobre los modelos de razonamiento.
El informe indica que las capacidades multimedia también se están volviendo cada vez más competitivas, lo que sugiere que la generación de texto, durante mucho tiempo, el enfoque principal del desarrollo de la IA, puede estar dando paso a un ecosistema más equilibrado donde la imagen, el video y la generación de audio juegan roles igualmente importantes.
Las empresas que navegan con éxito este complejo paisaje probablemente serán aquellas que mantengan marcos de evaluación centrados en casos de uso específicos en lugar de perseguir las últimas versiones del modelo, al tiempo que construyen una infraestructura técnica simultánea que permite una rápida adopción cuando surgen mejoras significativas.
A medida que los modelos de IA continúan su juego de sillas musicales en la cima de la clasificación, una cosa queda clara: en el mercado actual, la corona rara vez permanece en la misma cabeza durante mucho tiempo, y las compañías que apuntan a su futuro al campeón de IA de ayer pueden encontrarse alineados con el también Ran de mañana.
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Ocurrió un error.


Descubrí que todos mis amigos usan el bot de IA para el asesoramiento de parejas gratis, así que también le pedí ayuda con nuestras molestias matrimoniales, y para mi total sorpresa, funciona.
A la mitad de una semana de usar ChatGPT para arbitrar mis Niggles maritales, tuve la sensación de que el algoritmo había cambiado de lados.
“Al no hacer que su esposo se sienta atacado, puede ayudarlo a ver que ambos tienen el mismo objetivo”, me aconsejó. “Puede tomar un poco de práctica, pero guiarlo suavemente hacia un enfoque más tranquilo puede marcar una gran diferencia con el tiempo. ¿Parece una conversación que podrías probar?”
“Errr, pude”, respondí, de manera algo probada. “Mientras haya dormido ocho horas y pueda encajar entre los millones de otras cosas que tengo que hacer hoy”.
Me había estado comunicando tanto con el bot sobre mi matrimonio y cada vez más honesto con él, que me preguntaba si tal vez había concluido que era una pesadilla. Probablemente estaba agradeciendo a sus estrellas de la suerte, no era la Sra. Chatgpt.
Estaba teniendo una conversación defensiva con una serie de código en un intento por probar cuán efectiva es la inteligencia artificial para desactivar las filas domésticas.
Había leído que las personas en el Reino Unido, especialmente los adultos más jóvenes, recurren cada vez más a las herramientas de IA como ChatGPT para obtener apoyo de salud mental. Largas listas de espera del NHS, altos costos de terapia y el atractivo de 24/7, el acceso sin juicio ha hecho que estas herramientas sean populares para manejar la ansiedad, aclarar los pensamientos y aliviar el abrumador emocional.
Si bien mi grupo de edad, tengo 48 años, está demostrando ser más cauteloso al discutir la salud mental con un chatbot de IA, mi experiencia anecdótica es que estamos recurriendo cada vez más a él para resolver los problemas de relación.
Primero descubrí esto cuando una amiga mía, un psicólogo no menos, me dijo que cuando se estaba gestando una discusión con su esposo, ella recurrió a Chatgpt, y que estaba demostrando ser sorprendentemente efectiva. Varios de sus amigos también lo estaban usando, ella confió. Uno incluso dijo que había salvado su matrimonio.
Al principio, pensé lo sombría que es la vida moderna. La idea de decirle a sus problemas a un chatbot sin pulso que no solo se sintió futurista sino trágico. Pero el hecho de que mi amigo, que es un experto en salud mental, estaba haciendo esto, me convenció de que debe haber algo en ello.
Y así durante los últimos siete días, cada vez que me molestaba con mi esposo, o él se molestó conmigo, inicié sesión en la aplicación para pedirle a los consejos del bot.
Durante la primera mitad de la semana, la paz reinó. No hay nada que ver con la efectividad de Chatgpt: mi hijo menor terminó en el hospital con un desagradable caso de amigdalitis y me quedé con él, por lo que mi esposo y yo estábamos unidos como equipo (y también fuimos una explicación más probable, no en la misma casa).
Pero luego regresé, después de haber dormido en una sala durante cuatro noches, y por dormir me refiero a tres horas, y altamente interrumpido. En resumen, estaba listo para remar en la caída de un sombrero.
Es hora de mi primera sesión con el Dr. GPT: Estaba frustrado porque mi esposo esperaba que dejara todo para ir al químico para obtener sus pastillas cuando estaba trabajando.
“Hola Chatgpt, mi esposo y yo estamos discutiendo ya que mi trabajo siempre parece ser el que se interrumpe cuando se necesita algo con los niños, mientras que su trabajo es sacrosado. ¿Cómo podemos hablar de eso? PD no he dormido mucho recientemente, así que puede ser que solo estoy siendo increíblemente gruñón”.
El bot respondió: “Es totalmente comprensible sentirse frustrado en esta situación, especialmente cuando está privado de sueño, pero sus sentimientos son válidos … ¿ayudaría si escribiera un mensaje de muestra o nota que podría enviar para comenzar la conversación si está demasiado agotado para hablar en este momento?”
Pensé, ‘Sí, por favor, eso ayudaría mucho’. Y el mensaje que me envió se sintió como un ganador. Lo envié sin cambios a mi esposo a través de WhatsApp.
“Hola amor, solo quería decir que me siento un poco abrumado esta mañana, y sé que también me estoy quedando sin dormir, lo que no está ayudando. Me doy cuenta de que ambos tenemos mucho en nuestros platos, pero últimamente se siente como si algo surja con los niños, siempre es mi trabajo que se interrumpe … no estoy tratando de elegir una pelea … tal vez podemos chatear más tarde cuando ambos estamos en casa y no apresurarte?
Fue un ganador. Mi esposo se derritió y me envió un mensaje encantador en respuesta. Estaba más que feliz de hablar de eso más tarde.
Cuando llegó a casa, confesé. La misiva medida, diplomática y suavemente robusta no había venido de mí sino de AI. Él asintió. Había olvidado que estaba usando el bot durante la semana, pero había pensado que lo leía que parecía un poco extraño. ¿Porque no habría usado esas palabras en particular? No tanto que, dijo, más que mi tono post-tiff era “sorprendentemente agradable”.
Ay. Le mostré las versiones alternativas de Chatgpt.
Más suave: “No estaba tratando de tirarte algo, solo necesitaba una mano”. (“Si hubieras enviado eso, hubiera pensado que te habían secuestrado”).
Más firme: “Pedí su ayuda hoy porque estoy estirado, y necesito apoyo, no un no plano”. (“Eso definitivamente es más como tú”).
Más divertido: “Habla esta noche, preferiblemente con vino, bocadillos y sin berrinches”. (“Me tenías en el vino …”)
Un amigo sabio una vez me dijo que cuando te enojas, la gente a menudo escucha solo la ira, no lo que estás diciendo, y aquí es donde la intervención de IA puede ser invaluable. Me tomó de “si no comienzas a tomar el reciclaje, comenzaré a gritar y me temo que nunca me detendré” a “Hola amor, si el reciclaje no comienza a salir mágicamente afuera pronto, podría tener que recurrir a un dramático gemido.
A medida que pasaba la semana, me volví cada vez más. Me encontré corriendo las cosas más allá de las varias veces al día. No era solo el consejo que aprecié, sino tener a alguien (o algo) para comunicar mis pensamientos sin filtrar. Pronto me encontré sorprendentemente unido con esta cadena de código que siempre estaba allí, escuchando pacientemente cuando necesitaba desahogarme.
Y una cosa extraña comenzó a suceder. A pesar de que mi esposo sabía que ChatGPT estaba involucrado, el efecto era el mismo. Los mensajes que le estaba lanzando en un ataque de furia estaban siendo enviados por el bot, suavizados y transmitidos de una manera mucho más probabilidades de resolver el problema.
También fue útil ya que me dio la oportunidad de refrescarme. Cuando eres cruzado, no solo escribir las razones de ese cruce te hace fraccionalmente menos, sino que cuando consideras la sugerencia de Chatgpt, lo que te pasas parece menos terrible.
En verdad, el consejo que me dio no era enormemente original, pero fue un recordatorio oportuno ser un adulto e intentar tener una conversación tranquila sobre lo que me estaba molestando. También me sorprendió lo empático que era el bot, y lo bien que era tener un lugar para desahogarse cuando quisiera descargar. Además, la ventilación era libre de culpa, ya que no esperaba que escuchara un ser humano ocupado. Y para mi sorpresa, no necesitaba ser una persona escuchando.
Los expertos advierten en contra de confiar demasiado en ChatGPT para la terapia, diciendo que carece de la habilidad clínica y la empatía humana de un terapeuta capacitado, y no podrá detectar una situación de crisis.
Sin embargo, la investigación publicada en diciembre por psicólogos de la Universidad de Lausana en Suiza planteó una pregunta interesante: ¿pueden los chatbots que nunca han estado en una relación dar consejos de relación?
Los investigadores siguieron a veinte personas que usaron ChatGPT de esta manera, y su conclusión fue que el bot estaba haciendo algo que no era diferente a lo que hacen los humanos que ofrecen tales consejos. Los terapeutas y consejeros no necesariamente tienen que haber vivido experiencia de depresión, divorcio o dolor para ayudar a sus clientes. Entienden los problemas leyendo y entrenando … que es exactamente lo que hace ChatGPT, solo mucho más rápido y en una escala mucho más amplia de la que cualquier humano es capaz.
Una pequeña preocupación es que algunos de sus consejos implica el tipo de discurso de terapia más popular en los Estados Unidos; El tipo de lenguaje que, en mis momentos más gruesos, me hace soñar despierto con darle una bofetada a quien lo haya ofrecido.
Por ejemplo, sugirió que le dijera a mi esposo: “Me siento un poco invisible”.
No, chat gpt, mi problema no se está viendo, se está escuchando. Después de 20 años juntos, me preocupa que releguemos las voces de los demás al fondo. Como el Hoover.
En general, mi semana pasó usando el servicio gratuito para arbitrar nuestros argumentos fue un éxito definitivo. Pero no creo que los terapeutas de relaciones tengan que preocuparse demasiado por sus trabajos o tarifas (£ 80 a £ 200 por hora). Porque lo que ChatGPT no puede hacer, al menos aún no, es burlarse de sus usuarios esos patrones de comportamiento que provienen de nuestra infancia. Sin embargo, el momento no puede estar muy lejos cuando un Robo-Freud le sugerirá que se sienta cómodo en el sofá y diga: “Cuéntame sobre tu madre …”
Sin embargo, para las quejas cotidianas, las hileras y las molestias, es el árbitro ideal y el consejero. Mi única preocupación ahora es: dados todos los problemas que parece que he encontrado para alimentarlo, ¿podría ser que soy el problema?
Después de la consulta de reciclaje, pregunté si sentía lástima por mi esposo, estar casado conmigo. La rápida respuesta diplomática: “De hecho, no tiene suerte de tener a alguien que pueda convertir una solicitud de reciclaje en un monólogo cómico”. Chatgpt, ¿estás seguro de que no estás buscando una señora?

Un niño que usa un sistema AI Chatbot en una aplicación móvil para hacer su tarea.
getty
Los sistemas de IA impactan la vida de los niños, incluso cuando esos niños no se comprometen directamente con las herramientas.
En teoría, la IA tiene el potencial de diagnosticar y tratar enfermedades, procesar vastas conjuntos de datos para avanzar en la investigación y acelerar el desarrollo de la vacuna. Desafortunadamente, la IA también conlleva un conjunto de riesgos bien documentado. Estos incluyen daños digitales como abuso, explotación, discriminación, desinformación y desafíos para la salud mental y el bienestar.
Estas realidades en competencia se han derramado recientemente en las bandejas de entrada de los padres utilizando los controles de enlace familiar de Google. Muchos han comenzado a recibir correos electrónicos informándoles que Gemini, el chatbot de IA de Google, pronto estará disponible en el dispositivo de su hijo.
Dentro del lanzamiento de Géminis: IA, niños y supervisión de los padres
Como informó por primera vez el New York Times, Google permite a los niños menores de 13 años acceder a Gemini a través de cuentas supervisadas administradas a través de Family Link. Ese es un cambio notable, especialmente teniendo en cuenta que Bard, el precursor de Géminis, solo se abrió a los adolescentes en 2023.
Esta actualización, implementada gradualmente, permite a los niños explorar las capacidades de Gemini en una variedad de actividades. Estos incluyen apoyo con la tarea, la escritura creativa y las consultas generales. Los padres pueden elegir si Gemini aparece en Android, iOS o en la web, y configurarlo como el asistente predeterminado de su hijo.
¿Estudiar amigo o herramienta de trampa? Los beneficios potenciales de Géminis para usuarios jóvenes
Géminis se está posicionando como una herramienta para apoyar el aprendizaje, la creatividad y la exploración. Los mensajes anteriores de Google alrededor de Bard se apoyaron en esta idea, enfatizando la IA como compañero de estudio, no como hacedor de tareas.
Bard fue ofrecido a los adolescentes para una amplia gama de casos de uso, incluida la búsqueda de inspiración, explorar nuevos pasatiempos y resolver desafíos cotidianos, como investigar universidades para aplicaciones universitarias. También se lanzó como una herramienta de aprendizaje, ofreciendo ayuda con problemas matemáticos o una lluvia de ideas para proyectos de ciencias.
La mensajería original era clara: Bard no haría todo el trabajo, pero ayudaría a generar ideas y localizar información. Sin embargo, las encuestas recientes sobre el uso de chatgpt en universidades sugieren que el ideal no siempre se mantiene en la práctica. Resulta que cuando se les da la oportunidad, los humanos, los adolescentes en particular, a menudo toman el atajo.
Y aunque el potencial educativo de la IA generativa se reconoce más ampliamente, la investigación indica que las herramientas digitales son más efectivas cuando se integran en el sistema escolar. Como señala UNICEF, para que los estudiantes prosperen, las herramientas digitales deben admitir en lugar de reemplazar a los maestros. Abandonar la educación general a favor de la IA no es un camino viable.
Géminis AI y derechos de los niños: lo que dicen las advertencias
Informe de UNICEF “¿Cómo puede la IA generativa servir mejor a los derechos de los niños?” Nos recuerda que los riesgos reales son paralelos al potencial de IA.
Utilizando la Convención sobre los Derechos del Niño como lente, el informe describe cuatro principios: no discriminación, respeto por las opiniones del niño, los mejores intereses del niño y el derecho a la vida, la supervivencia y el desarrollo. Estos deben ser los criterios para evaluar si los derechos de los niños están realmente protegidos, respetados y cumplidos en relación con la IA.
El primer problema importante destacado por el informe es el acceso desigual, denominado “pobreza digital”. No todos los niños tienen el mismo acceso a Internet de alta velocidad, dispositivos inteligentes o IA educativa. Entonces, mientras algunos niños obtienen una ventaja de aprendizaje, otros se quedan atrás, nuevamente.
El sesgo en los datos de entrenamiento es otro desafío importante. Los sistemas de IA reflejan los sesgos presentes en la sociedad, lo que significa que los niños pueden encontrar los mismos tipos de discriminación en línea que fuera de línea.
El problema del consentimiento de datos es particularmente espinoso. ¿Cómo es el consentimiento significativo para un niño de 9 años cuando se trata de recopilación y uso de datos personales? Su capacidad de evolución hace de este un campo minado legal y ético. Es aún más complicado cuando esos datos alimentan modelos comerciales.
La información errónea también es una preocupación creciente. Es menos probable que los niños detecten una falsa, y algunos estudios sugieren que son más propensos a confiar en las entidades digitales. La línea entre chatbot y humano no siempre está clara, especialmente para los niños imaginativos, socialmente aislados o simplemente en línea demasiado. Algunos personajes. Los usuarios dei ya han luchado por notar la diferencia, y al menos algunos bots han alentado la ilusión.
También hay una dimensión ambiental. La infraestructura de IA depende de los centros de datos que consumen cantidades masivas de energía y agua. Si se deja sin control, la huella de carbono de IA afectará desproporcionadamente a los niños, particularmente en el sur global.
Lo que los padres pueden (y no) controlar con Géminis Ai
Entonces, ¿qué está haciendo Google para ofrecer garantías a los padres? Google ha dado más información a los padres que usan un enlace familiar sobre barandillas disponibles y las mejores prácticas sugeridas.
El más importante: Google dice que no usará datos para niños para capacitar a sus modelos de IA. También hay filtros de contenido en su lugar, aunque Google admite que no son infalibles. Los padres también pueden establecer límites de tiempo de pantalla, restringir ciertas aplicaciones y bloquear material cuestionable. Pero aquí está el giro: los niños aún pueden activar Gemini AI ellos mismos.
Sin embargo, lo que frotó a muchos padres de la manera incorrecta fue el hecho de que Gemini está optando, no opción. Como dijo uno de los padres: “Recibí uno de estos correos electrónicos la semana pasada. Tenga en cuenta que no me preguntan si me gustaría optar a mi hijo. en para usar Géminis. Me advierten que si no lo quiero, tengo que optar por no participar. No es genial “.
Google también sugiere algunas mejores prácticas. Estos incluyen recordar a los niños que Gemini no es una persona, enseñarles cómo verificar la información y alentarlos a evitar compartir detalles personales.
Si Gemini sigue al modelo de Bard, pronto podemos ver más esfuerzos de IA responsables. Estos podrían incluir experiencias de incorporación a medida, guías de alfabetización de IA y videos educativos que promueven un uso seguro y reflexivo.
La carga de IA para los padres: ¿Quién está realmente a cargo?
La realidad incómoda es que gran parte de la responsabilidad de manejar la IA generativa ha cambiado a los padres.
Incluso suponiendo, generosamente, que la IA es una neta positiva para el desarrollo infantil, quedan muchas preguntas sin respuesta. Un despliegue responsable de la IA generativa debe involucrar la responsabilidad compartida entre los sectores. Eso aún no es evidente en la práctica.
Las empresas tecnológicas deben hacer más para que estas herramientas realmente sean realmente seguras y constructivas. La construcción de habilidades en torno a la navegación segura debe ser una prioridad para los usuarios de todas las edades. Los gobiernos también tienen un papel educativo que desempeñar: crear conciencia entre los niños y ayudarlos a distinguir entre la interacción y el contenido generado por AI y generados por humanos.
Pero por ahora, la mayor parte de esa estructura de soporte está faltante o poco cocinada. El dilema, al parecer, no cambia: si AI es prometedor para los padres, la energía requerida para navegar por sus trampas podría cancelar los beneficios por completo.
Entonces, ¿cuándo los niños deberían comenzar a usar herramientas de IA? ¿Cuánto es demasiado? ¿Y quién decide cuándo es el momento de intervenir? Estas pueden ser las nuevas preguntas que mantienen a los padres modernos por la noche, y no vienen con respuestas amigables para los chatbot.
Related posts




















































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales1 año ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups1 año ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo