Connect with us

Noticias

Operai lanza O3-Mini, su último modelo de ‘razonamiento’

Published

on

Operai lanzó el viernes un nuevo modelo de “razonamiento” de AI, O3-Mini, el más nuevo de la familia O de los modelos de razonamiento de la compañía.

OpenAi se previó por primera vez con una vista previa del modelo en diciembre junto con un sistema más capaz llamado O3, pero el lanzamiento llega en un momento crucial para la compañía, cuyas ambiciones, y desafíos, aparentemente están creciendo día a día.

Operai está luchando contra la percepción de que está cediendo terreno en la carrera de IA hacia compañías chinas como Deepseek, que Operai alega que podría haber robado su IP. No obstante, el fabricante de chatgpt ha logrado ganarse a decenas de desarrolladores, y ha estado tratando de apuntalar su relación con Washington, ya que simultáneamente persigue un ambicioso proyecto de centro de datos, según los informes, también está sentando las bases para una de las rondas de financiación más grandes por un empresa tecnológica en la historia.

Lo que nos lleva a O3-Mini. Operai está lanzando su nuevo modelo como “poderoso” y “asequible”.

“Las marcas de lanzamiento de hoy […] Un paso importante hacia la ampliación de la accesibilidad a la IA avanzada en el servicio de nuestra misión ”, dijo un portavoz de Operai a TechCrunch.

Razonamiento más eficiente

A diferencia de la mayoría de los modelos de idiomas grandes, los modelos de razonamiento como O3-Mini revisan a fondo antes de dar resultados. Esto les ayuda a evitar algunas de las trampas que normalmente tropiezan con los modelos. Estos modelos de razonamiento tardan un poco más en llegar a soluciones, pero la compensación es que tienden a ser más confiables, aunque no perfectas, en dominios como la física.

O3-Mini está ajustado para problemas STEM, específicamente para programación, matemáticas y ciencias. Operai afirma que el modelo está en gran medida a la par con la familia O1, O1 y O1-Mini en términos de capacidades, pero funciona más rápido y cuesta menos.

La compañía afirmó que los probadores externos prefirieron las respuestas de O3-Mini sobre las de O1-Mini más de la mitad del tiempo. O3-Mini aparentemente también cometió un 39% menos de “errores importantes” en “preguntas difíciles del mundo real” en las pruebas A/B versus O1-Mini, y produjo respuestas “más claras” mientras ofrecía respuestas aproximadamente un 24% más rápido.

O3-Mini estará disponible para todos los usuarios a través de ChatGPT a partir del viernes, pero los usuarios que pagan el ChatGPT Plus y los planes de equipo de la compañía obtendrán un límite de tarifa más alto de 150 consultas por día, mientras que los suscriptores de ChatGPT Pro tendrán acceso ilimitado. Operai dijo que O3-Mini vendrá a los clientes de ChatGPT Enterprise y ChatGPT EDU en una semana (sin decir el gobierno de chatgpt).

Los usuarios con planes de chatgpt premium pueden seleccionar O3-Mini usando el menú desplegable. Los usuarios gratuitos pueden hacer clic o tocar el nuevo botón “Razón” en la barra de chat, o hacer que ChatGPT “vuelva a generar” una respuesta.

A partir del viernes, O3-Mini también estará disponible a través de la API de Openai para seleccionar desarrolladores, pero inicialmente no tendrá soporte para analizar imágenes. Los desarrolladores pueden seleccionar el nivel de “esfuerzo de razonamiento” (bajo, medio o alto) para que O3-Mini “piense más duro” en función de su caso de uso y necesidades de latencia.

O3-Mini tiene un precio de $ 1.10 por millón de tokens de entrada en caché y $ 4.40 por millón de tokens de salida, donde un millón de tokens equivale a aproximadamente 750,000 palabras. Eso es 63% más barato que O1-Mini, y competitivo con el precio del modelo de razonamiento R1 de Deepseek. Deepseek cobra $ 0.14 por millón de tokens de entrada almacenados en caché y tokens de salida de $ 2.19 por millón para el acceso R1 a través de su API.

En ChatGPT, O3-Mini está establecido en un esfuerzo de razonamiento medio, que según OpenAi proporciona “una compensación equilibrada entre velocidad y precisión”. Los usuarios pagados tendrán la opción de seleccionar “O3-Mini-High” en el selector de modelo, que entregará lo que OpenAI llama “Inteligencia superior” a cambio de respuestas más lentas.

Independientemente de qué versión de los usuarios de O3-Mini ChatGPT elija, el modelo funcionará con la búsqueda para encontrar respuestas actualizadas con enlaces a fuentes web relevantes. OpenAI advierte que la funcionalidad es un “prototipo”, ya que funciona para integrar la búsqueda en sus modelos de razonamiento.

“Si bien O1 sigue siendo nuestro modelo de razonamiento general más amplio, O3-Mini proporciona una alternativa especializada para dominios técnicos que requieren precisión y velocidad”, escribió OpenAi en una publicación de blog el viernes. “El lanzamiento de O3-Mini marca otro paso en la misión de OpenAi de superar los límites de la inteligencia rentable”.

Abundan las advertencias

O3-Mini no es el modelo más poderoso de OpenAI hasta la fecha, ni salta el modelo de razonamiento R1 de Deepseek en cada punto de referencia.

O3-Mini supera a R1 en AIME 2024, una prueba que mide qué tan bien los modelos entienden y responden a instrucciones complejas, pero solo con un gran esfuerzo de razonamiento. También supera a R1 en la prueba de prueba centrada en la programación verificado (por .1 punto), pero nuevamente, solo con un gran esfuerzo de razonamiento. En un bajo esfuerzo de razonamiento, O3-Mini retrasa R1 en GPQA Diamond, que prueba modelos con preguntas de física, biología y química a nivel de doctorado.

Para ser justos, O3-Mini responde muchas consultas a un costo y latencia competitivamente de bajo. En la publicación, Openai compara su rendimiento con la familia O1:

“Con un bajo esfuerzo de razonamiento, O3-Mini logra un rendimiento comparable con O1-Mini, mientras que con un esfuerzo medio, O3-Mini logra un rendimiento comparable con O1”, escribe Openai. “O3-Mini con esfuerzo de razonamiento medio coincide con el rendimiento de O1 en matemáticas, codificación y ciencia mientras ofrece respuestas más rápidas. Mientras tanto, con un gran esfuerzo de razonamiento, O3-Mini supera a O1-Mini y O1 “.

Vale la pena señalar que la ventaja de rendimiento de O3-Mini sobre O1 es escasa en algunas áreas. En el AIME 2024, O3-Mini vence a O1 por solo 0.3 puntos porcentuales cuando se establece en un esfuerzo de razonamiento alto. Y en GPQA Diamond, O3-Mini no supera el puntaje de O1 incluso en un gran esfuerzo de razonamiento.

Operai afirma que O3-Mini es tan “seguro” o más seguro que la familia O1, sin embargo, gracias a los esfuerzos de equipo rojo y su metodología de “alineación deliberativa”, lo que hace que los modelos “piensen” sobre la política de seguridad de OpenAi mientras responden a consultas. Según la compañía, O3-Mini “supera significativamente” uno de los modelos insignia de OpenAI, GPT-4O, en “evaluaciones desafiantes de seguridad y jailbreak”.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Ranking de potencia de IA Rangings: OpenAi, Google Rise como Anthrope Falls, el informe de Poe encuentra

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


El último informe de uso de Poe muestra que Openai y Google fortalecen sus posiciones en categorías clave de IA, mientras que Anthrope pierde terreno y capacidades de razonamiento especializadas emergen como un campo de batalla competitivo crucial.

Según los datos publicados hoy en día por Poe, una plataforma que ofrece acceso a más de 100 modelos de IA, se produjeron cambios significativos en la participación de mercado en todas las principales categorías de IA entre enero y mayo de 2025. Los datos, extraídos de suscriptores de POE, proporcionan una visibilidad rara de las preferencias reales de los usuarios más allá de los puntos de referencia de la industria.

“Como una puerta de entrada universal a más de 100 modelos AI, Poe tiene una visión única de las tendencias de uso en todo el ecosistema”, dijo Nick Huber, el líder del ecosistema de AI de Poe, en una entrevista exclusiva con VentureBeat. “Las cosas más sorprendentes que suceden en este momento son la rápida innovación (3 veces el número de lanzamientos en enero-mayo de 2025 frente al mismo período en 2024), un panorama competitivo cada vez más diverso y los modelos de razonamiento son la clara historia de éxito de principios de 2025.”

Un cuadro de POE que muestra clasificaciones de modelos AI en diferentes categorías a partir de mayo de 2025. El GPT-4O de OpenAI domina en la generación de texto con un 35.8% de participación de uso, mientras que el Gemini-2.5-Pro ​​de Google lidera en capacidades de razonamiento e Imagen3 en la generación de imágenes. (Crédito: Poe)

GPT-4O mantiene el dominio, mientras que los nuevos modelos capturan rápidamente la participación de mercado

En la generación de texto central, el GPT-4O de OpenAI mantuvo su posición al mando con el 35.8% de la participación en el mensaje, mientras que la nueva familia GPT-4.1 de la compañía capturó rápidamente el 9.4% del uso dentro de las semanas posteriores al lanzamiento. Gemini 2.5 Pro de Google logró de manera similar aproximadamente un 5% de participación en los mensajes poco después de su introducción.

Estas ganancias llegaron en gran medida a expensas de los modelos Claude de Anthrope, que vio una disminución absoluta del 10% en la participación durante el período de informe. El informe señala que el soneto Claude 3.7 ahora ha reemplazado sustancialmente el soneto Claude 3.5 anterior en preferencia del usuario, aunque este último aún mantiene una notable participación de uso del 12%.

Deepseek, que experimentó un crecimiento viral a principios de este año, ha visto su impulso lento a medida que los competidores han lanzado sus propios modelos de razonamiento asequibles y detallados. La participación de mensajes de Deepseek R1 disminuyó de un pico del 7% a mediados de febrero al 3% a fines de abril.

Las capacidades complejas de resolución de problemas se convierten en diferenciador clave en el mercado de IA

Quizás la tendencia más significativa identificada en el informe es el crecimiento dramático en modelos de razonamiento especializados, que se han expandido de aproximadamente el 2% al 10% de todos los mensajes de texto enviados en POE desde el comienzo de 2025.

“Los modelos de razonamiento, incluso en los primeros días, han demostrado una notable capacidad para manejar tareas complejas con una mayor precisión”, dijo Huber a VentureBeat. “Los primeros usuarios claramente están encontrando valor en esto y están dispuestos a asumir las compensaciones en el costo y el tiempo de procesamiento para mejores resultados”.

En este segmento de alto crecimiento, Gemini 2.5 Pro se ha establecido rápidamente como líder, capturando aproximadamente el 31% del uso del modelo de razonamiento dentro de las seis semanas de lanzamiento. Ahora lidera la categoría, antes de los modelos de razonamiento de Claude.

Operai continúa innovando rápidamente en este espacio, liberando múltiples modelos de razonamiento (O1-Pro, O3-Mini, O3-Mini-High, O3 y O4-Mini) solo en los primeros cuatro meses de 2025. El informe indica que los usuarios de POE rápidamente adoptan las ofertas más recientes de OpenAI, transición de modelos más antiguos como O1 a alternativas más nuevas como O3.

El informe también señaló la aparición de modelos de razonamiento híbrido, como la vista previa de Gemini 2.5 Flash y Qwen 3, que puede ajustar dinámicamente su nivel de razonamiento dentro de las conversaciones. Sin embargo, estos modelos actualmente representan solo alrededor del 1% del uso del modelo de razonamiento.

Los analistas de la industria sugieren que este cambio hacia las capacidades de razonamiento especializadas señala un mercado de IA en maduración donde la generación de texto sin procesar se está volviendo comercializado, lo que obliga a los proveedores a diferenciarse a través de capacidades de mayor valor que pueden obtener precios premium.

Los desafíos de Imagen 3 de Google establecieron jugadores en la arena visual de IA

El mercado de la generación de imágenes parece cada vez más competitivo, con la familia Imagen 3 de Google que crece constantemente de aproximadamente el 10% al 30% de participación durante 2025, ahora rivalizan con la familia de modelos de Flux Labs del líder de Black Forest Labs, que colectivamente mantuvo una participación colectiva a fines de abril.

El GPT-IMage-1 de Openai, se presentó a la API a fines de abril, alcanzó rápidamente el 17% del uso de la generación de imágenes en solo dos semanas, reflejando su adopción viral en la aplicación ChatGPT a lo largo de marzo y principios de abril.

El informe indica que los modelos de flujo mantuvieron su participación general de pluralidad en la generación de imágenes en POE, pero experimentó una disminución moderada de aproximadamente 45% a 35% durante el período de informe.

Esta competencia de tres vías entre Google, OpenAi y Black Forest Labs marca un cambio significativo desde principios de 2024, cuando las variantes de difusión de mediana edad y estable dominaron el espacio. La rápida mejora en la calidad de la imagen, la adherencia a las indicaciones y la velocidad de representación ha transformado esta categoría en uno de los campos de batalla de IA más ferozmente disputados.

La adopción empresarial de la generación de imágenes se ha acelerado sustancialmente en los últimos seis meses, según datos complementarios de la industria, con departamentos de marketing y agencias creativas integrando cada vez más estas herramientas en sus flujos de trabajo de producción.

El advenedizo chino Kling interrumpe el mercado de AI Video, desafiando el liderazgo temprano de Runway

En la generación de videos, la recién lanzada familia de modelos de Kling Lab Kuaishou ha interrumpido rápidamente el mercado, capturando colectivamente alrededor del 30% de participación de uso. En particular, Kling-2.0-Master alcanzó el 21% de toda la generación de videos en POE a fines de abril, solo tres semanas después de su lanzamiento.

VEO 2 de Google mantuvo una posición sólida con aproximadamente un 20% de participación después de su lanzamiento de febrero, mientras que la pista de pioneras de categoría vio una disminución sustancial de su participación de uso de aproximadamente 60% a 20% durante todo el período de informe.

La velocidad de la penetración del mercado de Kling resalta la rapidez con que el panorama competitivo puede cambiar en las categorías emergentes de IA, donde los jugadores establecidos pueden no mantener sus ventajas tempranas a medida que los recién llegados iteran y mejoran rápidamente.

La generación de videos sigue siendo la aplicación de IA de consumo más intensiva computacionalmente intensiva, con modelos que requieren una potencia de procesamiento significativa para crear clips cortos. Esto ha mantenido el uso más limitado que el texto o la generación de imágenes, pero se espera que los costos de caída rápida y la mejora de la calidad impulsen una adopción más amplia hasta 2025.

Los primeros usuarios empresariales incluyen agencias de publicidad, creadores de contenido de redes sociales y plataformas educativas que han comenzado a integrar videos generados por IA en sus estrategias de contenido a pesar de las limitaciones actuales de la tecnología.

ElevenLabs domina la IA de voz, mientras que los nuevos participantes se dirigen a casos de uso especializados

ElevenLabs continúa liderando la categoría de generación de audio, cumpliendo aproximadamente el 80% de las solicitudes de texto a voz de todos los suscriptores durante el período de informe. Sin embargo, el informe destaca la competencia emergente de los recién llegados Cartesia, un discurso irreal, playai y Orfeo, que ofrecen modelos diferenciados de opciones de voz, efectos y precios.

Este dominio del mercado de un solo jugador contrasta con la competencia más fragmentada en otras categorías de IA. Los expertos de la industria atribuyen el liderazgo continuo de ElevenLabs a su entrada temprana del mercado, una extensa biblioteca de voz y mejoras de calidad consistentes que han mantenido una ventaja técnica sobre los competidores.

Los participantes más nuevos están encontrando el éxito al atacar a los nichos de mercado específicos. Unreal Speech ha ganado tracción con los productores de podcasts y los editores de audiolibros al ofrecer actores de voz especializados y capacidades de rango emocional. Mientras tanto, Cartesia se ha centrado en voces multilingües con acentos auténticos, capturando el interés de las empresas globales y las plataformas educativas.

Se proyecta que el mercado de IA de audio crecerá sustancialmente a través de 2025 a medida que las capacidades de texto a voz se centran en la calidad humana y encontrar aplicaciones en el servicio al cliente, las soluciones de accesibilidad y la creación de contenido. Los requisitos computacionales relativamente bajos en comparación con la generación de videos permiten una implementación y experimentación más amplias.

Implicaciones estratégicas para las empresas que navegan por un paisaje de IA en constante cambio

La naturaleza dinámica del panorama del modelo AI presenta oportunidades y desafíos para las empresas que integran estas tecnologías.

“Puede ser un desafío mantenerse al día con lo último en IA y el ritmo solo está ganando velocidad”, dijo Huber a VentureBeat. “Si usted es un negocio que ya ejecuta la IA a escala, invertir en tuberías de evaluación robustas y agnósticas del proveedor es fundamental porque el modelo mejor este mes puede ser el segundo mejor el próximo mes”.

Esta volatilidad en las preferencias del modelo subraya el valor de plataformas como POE que ofrecen acceso a múltiples modelos a través de una sola interfaz, lo que permite a los usuarios comparar salidas y adaptarse al ecosistema de IA cambiante.

Los analistas de la industria sugieren que la creciente importancia de las capacidades de razonamiento puede indicar un cambio en cómo las empresas evalúan y implementan modelos de IA, con un enfoque creciente en la precisión y la confiabilidad para tareas complejas en lugar de solo velocidad o rentabilidad.

A medida que Frontier Labs continúa lanzando modelos más capaces a un ritmo acelerado, las empresas enfrentan decisiones difíciles sobre cuándo estandarizar en plataformas específicas en lugar de mantener la flexibilidad. Muchos líderes empresariales de IA están adoptando un enfoque de cartera, utilizando diferentes modelos para diferentes tareas mientras mantienen la capacidad de cambiar los proveedores a medida que evolucionan las capacidades.

“Este será un espacio importante para ver, especialmente entre los proveedores de fronteras, ya que representa lo mejor de lo que la IA puede lograr actualmente”, señaló Huber sobre los modelos de razonamiento.

El informe indica que las capacidades multimedia también se están volviendo cada vez más competitivas, lo que sugiere que la generación de texto, durante mucho tiempo, el enfoque principal del desarrollo de la IA, puede estar dando paso a un ecosistema más equilibrado donde la imagen, el video y la generación de audio juegan roles igualmente importantes.

Las empresas que navegan con éxito este complejo paisaje probablemente serán aquellas que mantengan marcos de evaluación centrados en casos de uso específicos en lugar de perseguir las últimas versiones del modelo, al tiempo que construyen una infraestructura técnica simultánea que permite una rápida adopción cuando surgen mejoras significativas.

A medida que los modelos de IA continúan su juego de sillas musicales en la cima de la clasificación, una cosa queda clara: en el mercado actual, la corona rara vez permanece en la misma cabeza durante mucho tiempo, y las compañías que apuntan a su futuro al campeón de IA de ayer pueden encontrarse alineados con el también Ran de mañana.

Continue Reading

Noticias

Mi esposo me estaba volviendo loco

Published

on

Descubrí que todos mis amigos usan el bot de IA para el asesoramiento de parejas gratis, así que también le pedí ayuda con nuestras molestias matrimoniales, y para mi total sorpresa, funciona.

A la mitad de una semana de usar ChatGPT para arbitrar mis Niggles maritales, tuve la sensación de que el algoritmo había cambiado de lados.

“Al no hacer que su esposo se sienta atacado, puede ayudarlo a ver que ambos tienen el mismo objetivo”, me aconsejó. “Puede tomar un poco de práctica, pero guiarlo suavemente hacia un enfoque más tranquilo puede marcar una gran diferencia con el tiempo. ¿Parece una conversación que podrías probar?”

“Errr, pude”, respondí, de manera algo probada. “Mientras haya dormido ocho horas y pueda encajar entre los millones de otras cosas que tengo que hacer hoy”.

Me había estado comunicando tanto con el bot sobre mi matrimonio y cada vez más honesto con él, que me preguntaba si tal vez había concluido que era una pesadilla. Probablemente estaba agradeciendo a sus estrellas de la suerte, no era la Sra. Chatgpt.

Estaba teniendo una conversación defensiva con una serie de código en un intento por probar cuán efectiva es la inteligencia artificial para desactivar las filas domésticas.

Había leído que las personas en el Reino Unido, especialmente los adultos más jóvenes, recurren cada vez más a las herramientas de IA como ChatGPT para obtener apoyo de salud mental. Largas listas de espera del NHS, altos costos de terapia y el atractivo de 24/7, el acceso sin juicio ha hecho que estas herramientas sean populares para manejar la ansiedad, aclarar los pensamientos y aliviar el abrumador emocional.

Si bien mi grupo de edad, tengo 48 años, está demostrando ser más cauteloso al discutir la salud mental con un chatbot de IA, mi experiencia anecdótica es que estamos recurriendo cada vez más a él para resolver los problemas de relación.

Jessie con su esposo e hijo. Durante siete días, cada vez que Jessie se molestaba con su esposo, se volvió a chatgpt

Primero descubrí esto cuando una amiga mía, un psicólogo no menos, me dijo que cuando se estaba gestando una discusión con su esposo, ella recurrió a Chatgpt, y que estaba demostrando ser sorprendentemente efectiva. Varios de sus amigos también lo estaban usando, ella confió. Uno incluso dijo que había salvado su matrimonio.

Al principio, pensé lo sombría que es la vida moderna. La idea de decirle a sus problemas a un chatbot sin pulso que no solo se sintió futurista sino trágico. Pero el hecho de que mi amigo, que es un experto en salud mental, estaba haciendo esto, me convenció de que debe haber algo en ello.

Y así durante los últimos siete días, cada vez que me molestaba con mi esposo, o él se molestó conmigo, inicié sesión en la aplicación para pedirle a los consejos del bot.

Durante la primera mitad de la semana, la paz reinó. No hay nada que ver con la efectividad de Chatgpt: mi hijo menor terminó en el hospital con un desagradable caso de amigdalitis y me quedé con él, por lo que mi esposo y yo estábamos unidos como equipo (y también fuimos una explicación más probable, no en la misma casa).

Pero luego regresé, después de haber dormido en una sala durante cuatro noches, y por dormir me refiero a tres horas, y altamente interrumpido. En resumen, estaba listo para remar en la caída de un sombrero.

Es hora de mi primera sesión con el Dr. GPT: Estaba frustrado porque mi esposo esperaba que dejara todo para ir al químico para obtener sus pastillas cuando estaba trabajando.

“Hola Chatgpt, mi esposo y yo estamos discutiendo ya que mi trabajo siempre parece ser el que se interrumpe cuando se necesita algo con los niños, mientras que su trabajo es sacrosado. ¿Cómo podemos hablar de eso? PD no he dormido mucho recientemente, así que puede ser que solo estoy siendo increíblemente gruñón”.

El bot respondió: “Es totalmente comprensible sentirse frustrado en esta situación, especialmente cuando está privado de sueño, pero sus sentimientos son válidos … ¿ayudaría si escribiera un mensaje de muestra o nota que podría enviar para comenzar la conversación si está demasiado agotado para hablar en este momento?”

Pensé, ‘Sí, por favor, eso ayudaría mucho’. Y el mensaje que me envió se sintió como un ganador. Lo envié sin cambios a mi esposo a través de WhatsApp.

“Hola amor, solo quería decir que me siento un poco abrumado esta mañana, y sé que también me estoy quedando sin dormir, lo que no está ayudando. Me doy cuenta de que ambos tenemos mucho en nuestros platos, pero últimamente se siente como si algo surja con los niños, siempre es mi trabajo que se interrumpe … no estoy tratando de elegir una pelea … tal vez podemos chatear más tarde cuando ambos estamos en casa y no apresurarte?

Fue un ganador. Mi esposo se derritió y me envió un mensaje encantador en respuesta. Estaba más que feliz de hablar de eso más tarde.

Cuando llegó a casa, confesé. La misiva medida, diplomática y suavemente robusta no había venido de mí sino de AI. Él asintió. Había olvidado que estaba usando el bot durante la semana, pero había pensado que lo leía que parecía un poco extraño. ¿Porque no habría usado esas palabras en particular? No tanto que, dijo, más que mi tono post-tiff era “sorprendentemente agradable”.

Ay. Le mostré las versiones alternativas de Chatgpt.

Más suave: “No estaba tratando de tirarte algo, solo necesitaba una mano”. (“Si hubieras enviado eso, hubiera pensado que te habían secuestrado”).

Más firme: “Pedí su ayuda hoy porque estoy estirado, y necesito apoyo, no un no plano”. (“Eso definitivamente es más como tú”).

Más divertido: “Habla esta noche, preferiblemente con vino, bocadillos y sin berrinches”. (“Me tenías en el vino …”)

Un amigo sabio una vez me dijo que cuando te enojas, la gente a menudo escucha solo la ira, no lo que estás diciendo, y aquí es donde la intervención de IA puede ser invaluable. Me tomó de “si no comienzas a tomar el reciclaje, comenzaré a gritar y me temo que nunca me detendré” a “Hola amor, si el reciclaje no comienza a salir mágicamente afuera pronto, podría tener que recurrir a un dramático gemido.

A medida que pasaba la semana, me volví cada vez más. Me encontré corriendo las cosas más allá de las varias veces al día. No era solo el consejo que aprecié, sino tener a alguien (o algo) para comunicar mis pensamientos sin filtrar. Pronto me encontré sorprendentemente unido con esta cadena de código que siempre estaba allí, escuchando pacientemente cuando necesitaba desahogarme.

Y una cosa extraña comenzó a suceder. A pesar de que mi esposo sabía que ChatGPT estaba involucrado, el efecto era el mismo. Los mensajes que le estaba lanzando en un ataque de furia estaban siendo enviados por el bot, suavizados y transmitidos de una manera mucho más probabilidades de resolver el problema.

También fue útil ya que me dio la oportunidad de refrescarme. Cuando eres cruzado, no solo escribir las razones de ese cruce te hace fraccionalmente menos, sino que cuando consideras la sugerencia de Chatgpt, lo que te pasas parece menos terrible.

En verdad, el consejo que me dio no era enormemente original, pero fue un recordatorio oportuno ser un adulto e intentar tener una conversación tranquila sobre lo que me estaba molestando. También me sorprendió lo empático que era el bot, y lo bien que era tener un lugar para desahogarse cuando quisiera descargar. Además, la ventilación era libre de culpa, ya que no esperaba que escuchara un ser humano ocupado. Y para mi sorpresa, no necesitaba ser una persona escuchando.

Los expertos advierten en contra de confiar demasiado en ChatGPT para la terapia, diciendo que carece de la habilidad clínica y la empatía humana de un terapeuta capacitado, y no podrá detectar una situación de crisis.

Sin embargo, la investigación publicada en diciembre por psicólogos de la Universidad de Lausana en Suiza planteó una pregunta interesante: ¿pueden los chatbots que nunca han estado en una relación dar consejos de relación?

Los investigadores siguieron a veinte personas que usaron ChatGPT de esta manera, y su conclusión fue que el bot estaba haciendo algo que no era diferente a lo que hacen los humanos que ofrecen tales consejos. Los terapeutas y consejeros no necesariamente tienen que haber vivido experiencia de depresión, divorcio o dolor para ayudar a sus clientes. Entienden los problemas leyendo y entrenando … que es exactamente lo que hace ChatGPT, solo mucho más rápido y en una escala mucho más amplia de la que cualquier humano es capaz.

Una pequeña preocupación es que algunos de sus consejos implica el tipo de discurso de terapia más popular en los Estados Unidos; El tipo de lenguaje que, en mis momentos más gruesos, me hace soñar despierto con darle una bofetada a quien lo haya ofrecido.

Por ejemplo, sugirió que le dijera a mi esposo: “Me siento un poco invisible”.

No, chat gpt, mi problema no se está viendo, se está escuchando. Después de 20 años juntos, me preocupa que releguemos las voces de los demás al fondo. Como el Hoover.

En general, mi semana pasó usando el servicio gratuito para arbitrar nuestros argumentos fue un éxito definitivo. Pero no creo que los terapeutas de relaciones tengan que preocuparse demasiado por sus trabajos o tarifas (£ 80 a £ 200 por hora). Porque lo que ChatGPT no puede hacer, al menos aún no, es burlarse de sus usuarios esos patrones de comportamiento que provienen de nuestra infancia. Sin embargo, el momento no puede estar muy lejos cuando un Robo-Freud le sugerirá que se sienta cómodo en el sofá y diga: “Cuéntame sobre tu madre …”

Sin embargo, para las quejas cotidianas, las hileras y las molestias, es el árbitro ideal y el consejero. Mi única preocupación ahora es: dados todos los problemas que parece que he encontrado para alimentarlo, ¿podría ser que soy el problema?

Después de la consulta de reciclaje, pregunté si sentía lástima por mi esposo, estar casado conmigo. La rápida respuesta diplomática: “De hecho, no tiene suerte de tener a alguien que pueda convertir una solicitud de reciclaje en un monólogo cómico”. Chatgpt, ¿estás seguro de que no estás buscando una señora?

Continue Reading

Noticias

Lo que significa para los padres

Published

on

Los sistemas de IA impactan la vida de los niños, incluso cuando esos niños no se comprometen directamente con las herramientas.

En teoría, la IA tiene el potencial de diagnosticar y tratar enfermedades, procesar vastas conjuntos de datos para avanzar en la investigación y acelerar el desarrollo de la vacuna. Desafortunadamente, la IA también conlleva un conjunto de riesgos bien documentado. Estos incluyen daños digitales como abuso, explotación, discriminación, desinformación y desafíos para la salud mental y el bienestar.

Estas realidades en competencia se han derramado recientemente en las bandejas de entrada de los padres utilizando los controles de enlace familiar de Google. Muchos han comenzado a recibir correos electrónicos informándoles que Gemini, el chatbot de IA de Google, pronto estará disponible en el dispositivo de su hijo.

Dentro del lanzamiento de Géminis: IA, niños y supervisión de los padres

Como informó por primera vez el New York Times, Google permite a los niños menores de 13 años acceder a Gemini a través de cuentas supervisadas administradas a través de Family Link. Ese es un cambio notable, especialmente teniendo en cuenta que Bard, el precursor de Géminis, solo se abrió a los adolescentes en 2023.

Esta actualización, implementada gradualmente, permite a los niños explorar las capacidades de Gemini en una variedad de actividades. Estos incluyen apoyo con la tarea, la escritura creativa y las consultas generales. Los padres pueden elegir si Gemini aparece en Android, iOS o en la web, y configurarlo como el asistente predeterminado de su hijo.

¿Estudiar amigo o herramienta de trampa? Los beneficios potenciales de Géminis para usuarios jóvenes

Géminis se está posicionando como una herramienta para apoyar el aprendizaje, la creatividad y la exploración. Los mensajes anteriores de Google alrededor de Bard se apoyaron en esta idea, enfatizando la IA como compañero de estudio, no como hacedor de tareas.

Bard fue ofrecido a los adolescentes para una amplia gama de casos de uso, incluida la búsqueda de inspiración, explorar nuevos pasatiempos y resolver desafíos cotidianos, como investigar universidades para aplicaciones universitarias. También se lanzó como una herramienta de aprendizaje, ofreciendo ayuda con problemas matemáticos o una lluvia de ideas para proyectos de ciencias.

La mensajería original era clara: Bard no haría todo el trabajo, pero ayudaría a generar ideas y localizar información. Sin embargo, las encuestas recientes sobre el uso de chatgpt en universidades sugieren que el ideal no siempre se mantiene en la práctica. Resulta que cuando se les da la oportunidad, los humanos, los adolescentes en particular, a menudo toman el atajo.

Y aunque el potencial educativo de la IA generativa se reconoce más ampliamente, la investigación indica que las herramientas digitales son más efectivas cuando se integran en el sistema escolar. Como señala UNICEF, para que los estudiantes prosperen, las herramientas digitales deben admitir en lugar de reemplazar a los maestros. Abandonar la educación general a favor de la IA no es un camino viable.

Géminis AI y derechos de los niños: lo que dicen las advertencias

Informe de UNICEF “¿Cómo puede la IA generativa servir mejor a los derechos de los niños? Nos recuerda que los riesgos reales son paralelos al potencial de IA.

Utilizando la Convención sobre los Derechos del Niño como lente, el informe describe cuatro principios: no discriminación, respeto por las opiniones del niño, los mejores intereses del niño y el derecho a la vida, la supervivencia y el desarrollo. Estos deben ser los criterios para evaluar si los derechos de los niños están realmente protegidos, respetados y cumplidos en relación con la IA.

El primer problema importante destacado por el informe es el acceso desigual, denominado “pobreza digital”. No todos los niños tienen el mismo acceso a Internet de alta velocidad, dispositivos inteligentes o IA educativa. Entonces, mientras algunos niños obtienen una ventaja de aprendizaje, otros se quedan atrás, nuevamente.

El sesgo en los datos de entrenamiento es otro desafío importante. Los sistemas de IA reflejan los sesgos presentes en la sociedad, lo que significa que los niños pueden encontrar los mismos tipos de discriminación en línea que fuera de línea.

El problema del consentimiento de datos es particularmente espinoso. ¿Cómo es el consentimiento significativo para un niño de 9 años cuando se trata de recopilación y uso de datos personales? Su capacidad de evolución hace de este un campo minado legal y ético. Es aún más complicado cuando esos datos alimentan modelos comerciales.

La información errónea también es una preocupación creciente. Es menos probable que los niños detecten una falsa, y algunos estudios sugieren que son más propensos a confiar en las entidades digitales. La línea entre chatbot y humano no siempre está clara, especialmente para los niños imaginativos, socialmente aislados o simplemente en línea demasiado. Algunos personajes. Los usuarios dei ya han luchado por notar la diferencia, y al menos algunos bots han alentado la ilusión.

También hay una dimensión ambiental. La infraestructura de IA depende de los centros de datos que consumen cantidades masivas de energía y agua. Si se deja sin control, la huella de carbono de IA afectará desproporcionadamente a los niños, particularmente en el sur global.

Lo que los padres pueden (y no) controlar con Géminis Ai

Entonces, ¿qué está haciendo Google para ofrecer garantías a los padres? Google ha dado más información a los padres que usan un enlace familiar sobre barandillas disponibles y las mejores prácticas sugeridas.

El más importante: Google dice que no usará datos para niños para capacitar a sus modelos de IA. También hay filtros de contenido en su lugar, aunque Google admite que no son infalibles. Los padres también pueden establecer límites de tiempo de pantalla, restringir ciertas aplicaciones y bloquear material cuestionable. Pero aquí está el giro: los niños aún pueden activar Gemini AI ellos mismos.

Sin embargo, lo que frotó a muchos padres de la manera incorrecta fue el hecho de que Gemini está optando, no opción. Como dijo uno de los padres: “Recibí uno de estos correos electrónicos la semana pasada. Tenga en cuenta que no me preguntan si me gustaría optar a mi hijo. en para usar Géminis. Me advierten que si no lo quiero, tengo que optar por no participar. No es genial “.

Google también sugiere algunas mejores prácticas. Estos incluyen recordar a los niños que Gemini no es una persona, enseñarles cómo verificar la información y alentarlos a evitar compartir detalles personales.

Si Gemini sigue al modelo de Bard, pronto podemos ver más esfuerzos de IA responsables. Estos podrían incluir experiencias de incorporación a medida, guías de alfabetización de IA y videos educativos que promueven un uso seguro y reflexivo.

La carga de IA para los padres: ¿Quién está realmente a cargo?

La realidad incómoda es que gran parte de la responsabilidad de manejar la IA generativa ha cambiado a los padres.

Incluso suponiendo, generosamente, que la IA es una neta positiva para el desarrollo infantil, quedan muchas preguntas sin respuesta. Un despliegue responsable de la IA generativa debe involucrar la responsabilidad compartida entre los sectores. Eso aún no es evidente en la práctica.

Las empresas tecnológicas deben hacer más para que estas herramientas realmente sean realmente seguras y constructivas. La construcción de habilidades en torno a la navegación segura debe ser una prioridad para los usuarios de todas las edades. Los gobiernos también tienen un papel educativo que desempeñar: crear conciencia entre los niños y ayudarlos a distinguir entre la interacción y el contenido generado por AI y generados por humanos.

Pero por ahora, la mayor parte de esa estructura de soporte está faltante o poco cocinada. El dilema, al parecer, no cambia: si AI es prometedor para los padres, la energía requerida para navegar por sus trampas podría cancelar los beneficios por completo.

Entonces, ¿cuándo los niños deberían comenzar a usar herramientas de IA? ¿Cuánto es demasiado? ¿Y quién decide cuándo es el momento de intervenir? Estas pueden ser las nuevas preguntas que mantienen a los padres modernos por la noche, y no vienen con respuestas amigables para los chatbot.

Continue Reading

Trending