Connect with us

Noticias

iOS 18.2 desarrollador beta 2: ChatGPT, actualizaciones de control de cámara

Published

on

iOS 18.2 Developer Beta 2 ya está disponible para descargar.

iOS 18.2 recibió su segunda versión beta para desarrolladores, mientras continúan las pruebas de Apple Intelligence. Aquí encontrará todo lo que necesita saber sobre la actualización de software y los cambios que incluye.

El lunes, Apple lanzó la versión beta 2 para desarrolladores de iOS 18.2, que lleva iOS 18.2 a modelos de iPhone tan antiguos como el iPhone XR y el iPhone XS. La primera versión beta para desarrolladores, lanzada dos semanas antes, solo estaba destinada a pruebas de Apple Intelligence y, por lo tanto, solo era compatible con la gama iPhone 15 Pro y iPhone 16.

En general, iOS 18.2 presenta soporte para una variedad de funciones de Apple Intelligence, incluidas Image Playground, Genmoji y Visual Intelligence en el iPhone 16. La integración de ChatGPT con Siri y Writing Tools también es parte de la actualización, y la versión beta para desarrolladores del lunes se expande. sobre muchas de estas características con nuevas configuraciones y pantallas de presentación.

Más opciones para ChatGPT en la aplicación Configuración

La segunda versión beta para desarrolladores de iOS 18.2 presenta opciones adicionales para funciones impulsadas por ChatGPT, basándose en la versión beta para desarrolladores anterior que trajo la integración de ChatGPT a iOS.

A partir de iOS 18.2, Siri puede reenviar preguntas y solicitudes a ChatGPT. El software puede ayudar a los usuarios con cosas como la creación de texto en herramientas de escritura, así como con la generación de imágenes. Se han agregado nuevas pantallas de presentación para informar a los usuarios sobre las funciones habilitadas para ChatGPT y sus beneficios.

Si bien la funcionalidad básica de ChatGPT está disponible en cualquier momento y sin costo alguno, iOS 18.2 solo ofrece capacidades avanzadas de ChatGPT en una capacidad limitada. Con la versión beta para desarrolladores del lunes, los usuarios ahora podrán ver si han excedido o no el límite diario de las capacidades avanzadas de ChatGPT.

Smartphone que muestra la pantalla de actualización ChatGPT Plus, rodeado por una planta verde y un estuche de carga blanco sobre un fondo blanco.

La versión beta 2 para desarrolladores de iOS 18.2 incluye nuevas configuraciones para las funciones impulsadas por ChatGPT.

Una vez que se ha superado el límite de capacidad avanzada, se envían solicitudes adicionales a la versión básica de ChatGPT por hasta 24 horas. Aquellos que quieran aún más ahora tienen la opción de actualizar a ChatGPT Plus por $19,99 al mes, directamente desde la aplicación Configuración.

Vale la pena señalar que la integración ChatGPT solo está disponible para dispositivos que ya son compatibles con Apple Intelligence, como la gama iPhone 16. Con su última versión beta de iOS 18.2, Apple también ha incluido nuevas configuraciones específicas para estos dispositivos.

Configuraciones adicionales de control de cámara para usuarios de iPhone 16

La versión beta para desarrolladores de iOS 18.2 del lunes presenta configuraciones adicionales para el control de la cámara, que se introdujo con la gama iPhone 16. El Camera Control es un componente de hardware completamente nuevo, un botón con una superficie capacitiva y un sensor de fuerza.

Mano sosteniendo un teléfono inteligente que muestra la configuración de control de la cámara, cerca de una planta y un estuche de auriculares inalámbricos sobre una superficie blanca.

iOS 18.2 Developer Beta 2 incluye configuraciones adicionales para el botón Control de cámara.

La versión beta 2 para desarrolladores de iOS 18.2 ahora permite a los usuarios ajustar la velocidad del doble clic para el control de la cámara. Además de la opción “Predeterminada”, la velocidad del doble clic se puede configurar en “Lenta” o “Más lenta”.

La actualización de software también agrega una nueva opción “Bloqueo AE/AF”, que bloquea la exposición y el enfoque al tomar una foto. El control de la cámara se puede configurar para alternar el bloqueo AE/AF con una ligera presión. Esto significa que la exposición se mantiene constante y que la imagen no se oscurecerá, incluso cuando se mueve el iPhone.

FindMy recibió una actualización importante con la versión beta para desarrolladores del lunes, ya que el software ahora permite a los usuarios compartir la ubicación de objetos perdidos con personas en las que confían.

Una mano sostiene un dispositivo blanco junto a un teléfono inteligente que muestra

Las ubicaciones de artículos perdidos, como AirTags, se pueden compartir con personas de confianza.

Cuando se pierde un AirTag u otro artículo, los usuarios pueden optar por compartir la ubicación del artículo con una persona de confianza o incluso con una aerolínea, todo para que el artículo perdido pueda recuperarse más fácilmente. Esto podría ser particularmente útil para equipaje perdido, aunque los dispositivos equipados con FindMy también han ayudado a las autoridades a localizar vehículos robados en algunos casos.

La ubicación del artículo perdido se comparte en forma de enlace. El destinatario del enlace podrá ver la ubicación del AirTag, el número de serie y el correo electrónico o el número de teléfono de la cuenta Apple del usuario durante un período de tiempo limitado. El uso compartido de la ubicación se detiene automáticamente una vez que se encuentra el artículo o cuando caduca el enlace a la ubicación del artículo.

Los filtros de contenido web ahora están habilitados automáticamente para menores en Utah

Si bien la versión beta para desarrolladores del lunes presenta diferentes mejoras para Camera Control, ChatGPT y FindMy, también incluye un cambio significativo que afecta específicamente a los residentes de Utah de 17 años o menos.

Pantalla de teléfono inteligente que muestra un símbolo de prohibición degradado de azul a verde sobre un fondo blanco, con un vibrante fondo azul-verde.

iOS 18.2 Developer Beta 2 incluye un filtro de contenido web habilitado automáticamente para residentes de Utah menores de 17 años.

Utah exige que los dispositivos móviles como el iPhone y el iPad incluyan un filtro de contenido web habilitado automáticamente, que limita los sitios web con contenido para adultos. Esto sirve para proteger a los menores y evitar que accedan a contenidos nocivos e inapropiados en la web.

La segunda versión beta para desarrolladores de iOS 18.2 garantiza el cumplimiento de este requisito, ya que el filtro está activado de forma predeterminada para los residentes de Utah menores de 18 años. Tenga en cuenta que el filtro de contenido web no se habilita automáticamente en otros estados, países y regiones donde sí está habilitado. no requerido por la ley.

Otros cambios y mejoras en la beta 2 para desarrolladores de iOS 18.2

iOS 18.2 también recibió un cambio estético menor con la versión beta para desarrolladores del lunes, que afecta los íconos en Configuración. Cuando el Modo oscuro está habilitado, los íconos en la aplicación Configuración ahora tienen un borde gris distintivo. Los nuevos contornos de los íconos permiten un mayor contraste dentro de la aplicación.

Smartphone que muestra la pantalla de configuración sobre una superficie blanca, rodeado por una planta, un estuche para auriculares y una mano acercándose a ella.

Los íconos del modo oscuro tienen una nueva apariencia en la aplicación Configuración.

Varias mejoras en la calidad de vida de las funciones existentes del dispositivo también están presentes en el sistema operativo, y el último iOS 18.2 ofrece una mejor duración de la batería, según las notas de la versión de Apple.

Ciertas aplicaciones y funciones del sistema también han recibido actualizaciones menores:

  • Correo: una nueva opción para las insignias de aplicaciones, que permite a los usuarios elegir si aparecen solo para los mensajes principales no leídos o para todos los mensajes no leídos.
  • iPhone Mirroring: permite a los usuarios reflejar la pantalla de su iPhone incluso cuando una Mac la utiliza como punto de acceso personal.
  • Notas: un botón adicional “Crear imagen” que aparece cuando se selecciona texto.
  • Atajos: tres nuevos atajos relacionados con la aplicación Fitness.

Ninguno de estos cambios es particularmente significativo, dado que se basan en gran medida en aplicaciones existentes y sus características. Apple ya agregó soporte para la generación de imágenes con la primera versión beta para desarrolladores de iOS 18.2, mientras que las insignias de aplicaciones han estado disponibles desde los primeros días de iOS.

visionOS 2.2 presenta nuevas vistas ancha y ultraancha para Mac Virtual Display

La versión beta para desarrolladores de visionOS 2.2, por otro lado, incluye una mejora importante en la función Mac Virtual Display. Si bien Apple Vision Pro siempre se pudo utilizar como pantalla externa para Mac, ahora hay dos nuevos modos de visualización: Ultrawide y Wide. Según Apple, la nueva configuración Ultrawide equivale a conectar dos monitores 4K a una Mac y usarlos uno al lado del otro.

Una configuración de escritorio de realidad virtual con tres pantallas curvas que muestran gráficos coloridos, un software de edición de fotografías de gatos, artículos y un fondo exterior brumoso.

visionOS 2.2 beta agrega una nueva vista ancha y ultraancha para Mac Virtual Display.

Apple ya anunció las nuevas vistas Wide y Ultrawide, por lo que su llegada era inevitable, pero de todos modos fue un cambio bienvenido. Sin embargo, Apple Vision Pro todavía carece de Apple Intelligence, lo que significa que sus usuarios no podrán aprovechar las diversas funciones de IA disponibles en otras plataformas de Apple.

Aunque algunas funciones de Apple Intelligence ya están aquí, como el resumen de correo electrónico y la herramienta de limpieza en Fotos, una buena parte de ellas todavía solo están disponibles en versiones beta para desarrolladores. Se espera que iOS 18.2 reciba su lanzamiento público final a principios de diciembre de 2024, que es cuando funciones como Image Playground y Visual Intelligence estarán disponibles para todos los usuarios.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El futuro está aquí: probar el modo de cámara en vivo de Gemini

Published

on

“Acabo de ver tus tijeras sobre la mesa, justo al lado del paquete verde de pistachos. ¿Las ves?”

La nueva y charlatis función de cámara de Gemini Live era correcta. Mis tijeras estaban exactamente donde decían que estaban, y todo lo que hice fue pasar mi cámara frente a ellas en algún momento durante una sesión en vivo de 15 minutos de mí dándole al chatbot Ai un recorrido por mi apartamento. Google ha estado implementando el nuevo modo de cámara a todos los teléfonos Android utilizando la aplicación Gemini de forma gratuita después de una exclusiva de dos semanas en Pixel 9 (incluidos los nuevos teléfonos inteligentes Pixel 9a) y Galaxy S5. Entonces, ¿qué es exactamente este modo de cámara y cómo funciona?

Cuando comienzas una sesión en vivo con Gemini, ahora tienes la opción de habilitar una vista de cámara en vivo, donde puedes hablar con el chatbot y preguntarle sobre cualquier cosa que ve la cámara. No solo puede identificar objetos, sino que también puede hacer preguntas sobre ellos, y funciona bastante bien en su mayor parte. Además, puede compartir su pantalla con Gemini para que pueda identificar cosas que sale a la superficie en la pantalla de su teléfono.

Cuando apareció la nueva función de cámara en mi teléfono, no dudé en probarla. En una de mis pruebas más largas, lo encendí y comencé a caminar por mi apartamento, preguntándole a Géminis qué vio. Identificó algunas frutas, chapstick y algunos otros artículos cotidianos sin ningún problema. Me sorprendió cuando encontró mis tijeras.

Eso es porque no había mencionado las tijeras en absoluto. Géminis los había identificado silenciosamente en algún lugar del camino y luego retiró la ubicación con precisión. Se sentía mucho como el futuro, tuve que hacer más pruebas.

Mi experimento con la función de cámara de Gemini Live fue seguir el liderazgo de la demostración que Google hizo el verano pasado cuando mostró por primera vez estas capacidades de IA de video en vivo. Géminis le recordó a la persona que dio la demostración donde había dejado sus gafas, y parecía demasiado bueno para ser verdad. Pero como descubrí, era muy cierto.

Gemini Live reconocerá mucho más que las probabilidades y fines del hogar. Google dice que te ayudará a navegar por una estación de tren abarrotada o descubrir el relleno de una masa. Puede brindarle información más profunda sobre obras de arte, como dónde se originó un objeto y si se trataba de una pieza de edición limitada.

Es más que una lente de Google mejorada. Hablas con eso y te habla. No necesitaba hablar con Gemini de ninguna manera en particular, era tan informal como cualquier conversación. Mucho mejor que hablar con el antiguo Asistente de Google que la compañía se está eliminando rápidamente.

Conversación en vivo de Géminis

Ampliar imagen

Conversación en vivo de Géminis

Aquí hay un vistazo a parte de mi conversación con Gemini Live sobre los objetos que estaba viendo en mi apartamento.

Blake Stimac/Cnet

Google también lanzó un nuevo video de YouTube para la caída de píxeles de abril de 2025 que muestra la función, y ahora hay una página dedicada en Google Store para ello.

Para comenzar, puede ir a vivir con Gemini, habilitar la cámara y comenzar a hablar. Eso es todo.

Gemini Live sigue desde el proyecto Astra de Google, revelado por primera vez el año pasado como posiblemente la característica más grande de la compañía “estamos en el futuro”, un siguiente paso experimental para las capacidades generativas de IA, más allá de su simplemente escribir o incluso hablar en un chatbot como chatgpt, Claude o gemini. Se produce a medida que las empresas de IA continúan aumentando drásticamente las habilidades de las herramientas de IA, desde la generación de videos hasta la potencia de procesamiento en bruto. Similar a Gemini Live, está la inteligencia visual de Apple, que el fabricante de iPhone lanzó en forma beta a fines del año pasado.

Mi gran conclusión es que una característica como Gemini Live tiene el potencial de cambiar la forma en que interactuamos con el mundo que nos rodea, fusionando nuestros mundos digitales y físicos simplemente sosteniendo su cámara frente a casi cualquier cosa.

Puse a Géminis en vivo en una prueba real

La primera vez que lo probé, Gemini fue sorprendentemente preciso cuando coloqué un juego muy específico coleccionable de un conejo relleno en la vista de mi cámara. La segunda vez, se lo mostré a un amigo en una galería de arte. Identificó la tortuga en una cruz (no me preguntes) e inmediatamente identificó y tradujo el Kanji justo al lado de la tortuga, dándonos a los dos escalofríos y dejándonos más que un poco asustados. En el buen sentido, creo.

Este fue el primer objeto que probé con la nueva función de Gemini Live, y reconoció impresionantemente qué era y de qué juego era (Alice de American McGee). Cada vez que le pedía a Géminis que identifique el juego del que era el lujoso, fallaba.

Blake Stimac/Cnet

Pensé en cómo podría probar la función. Traté de grabarlo en la pantalla en acción, pero constantemente se desmoronó en esa tarea. ¿Y qué pasaría si saliera del camino golpeado con él? Soy un gran admirador del género de terror (películas, programas de televisión, videojuegos) y tengo innumerables coleccionables, baratijas y lo que tienes. ¿Qué tan bien le haría con cosas más oscuras, como mis coleccionables con temática de terror?

Las pruebas iniciales demostraron ser significativamente más exitosas que la anterior, a pesar de darle varias pistas. Gemini finalmente consiguió el juego, Silent Hill: el mensaje corto, pero aún no podía dar el nombre correcto para la figura, aterrizando solo en “Cherry Blossom Monster” en lugar de Sakurahead, que había adivinado correctamente varias veces antes.

Blake Stimac/Cnet

Primero, permítanme decir que Géminis puede ser absolutamente increíble y ridículamente frustrante en la misma ronda de preguntas. Tenía aproximadamente 11 objetos que le estaba pidiendo a Gemini que se identificara, y a veces empeoraba cuanto más tiempo funcionara la sesión en vivo, por lo que tuve que limitar las sesiones a solo uno o dos objetos. Supongo que Gemini intentó usar información contextual de objetos previamente identificados para adivinar nuevos objetos que se ponen al frente, lo que tiene sentido, pero en última instancia, ni yo ni yo nos beneficié de esto.

A veces, Géminis estaba en punto, aterrizando fácilmente las respuestas correctas sin problemas ni confusión, pero esto tendía a suceder con objetos más recientes o populares. Por ejemplo, me sorprendió cuando inmediatamente supuso que uno de mis objetos de prueba no era solo de Destiny 2, sino que fue una edición limitada de un evento estacional del año pasado.

En otras ocasiones, Gemini estaría fuera de la marca, y necesitaría darle más pistas para entrar en el estadio de la respuesta correcta. Y a veces, parecía que Géminis estaba tomando contexto de mis sesiones en vivo anteriores para encontrar respuestas, identificando múltiples objetos como provenientes de Silent Hill cuando no lo estaban. Tengo un caso de exhibición dedicado a la serie de juegos, por lo que pude ver por qué querría sumergirse en ese territorio rápidamente.

Esta fue la más difícil de mis pruebas. Le pedí a Gemini que identifique no solo de qué juego todavía era esto (Silent Hill 2), sino qué cita icónica, dijo la persona en la parte superior de las escaleras. Géminis clavó el juego, los personajes y la mitad de la cita en la primera ronda; Se necesitaron dos conjeturas más para terminar la cita: “¿También lo ves? Para mí, siempre es así”.

Blake Stimac/Cnet

Géminis puede obtener un error completo a veces. En más de una ocasión, Gemini identificó erróneamente uno de los artículos como un personaje inventado de la colina silenciosa inédita: F Juego, claramente fusionando piezas de diferentes títulos en algo que nunca fue. El otro error consistente que experimenté fue cuando Gemini producía una respuesta incorrecta, y lo corrigía e insinuaría más cerca de la respuesta, o directamente darle la respuesta, solo para que repita la respuesta incorrecta como si fuera una nueva suposición. Cuando eso sucedía, cerraría la sesión y comenzaría una nueva, que no siempre fue útil.

Un truco que encontré fue que algunas conversaciones lo hicieron mejor que otras. Si me desplazé por mi lista de conversación de Géminis, aproveché un viejo chat que había obtenido un elemento específico correcto, y entonces Volvió a vivir de nuevo desde ese chat, podría identificar los elementos sin problemas. Si bien eso no es necesariamente sorprendente, fue interesante ver que algunas conversaciones funcionaron mejor que otras, incluso si usó el mismo idioma.

Google no respondió a mis solicitudes de más información sobre cómo funciona Gemini Live.

I buscado Géminis para responder con éxito mis preguntas a veces altamente específicas, así que proporcioné muchas pistas para llegar allí. Los empujones a menudo eran útiles, pero no siempre. A continuación hay una serie de objetos que intenté que Gemini identifique y proporcione información.

Para este, solo le pregunté a Gemini qué vio. “Ok, veo un gato blanco y negro que está disfrutando del sol en un piso de madera. Le pedí a Gemini que volviera a adivinar, y recibí respuestas de “Home es donde el horror es” honor “, pero finalmente aterrizó en la respuesta correcta (solo la palabra,” horror “).

Blake Stimac/Cnet

Gemini me dio cuatro personajes equivocados del juego correcto antes de identificar correctamente este icónico personaje infinito de Bioshock, Songbird.

Blake Stimac/Cnet

Géminis clavó esta figura espeluznante en la primera suposición. (Víctima gemela, Silent Hill 4: la habitación)

Blake Stimac/Cnet

Sin complicaciones: Géminis reconoció correctamente a Mira de Silent Hill 2, la real en control de la ciudad

Blake Stimac/Cnet

Este me impresionó. Si bien Géminis podía “ver” que este era un mapa silencioso de la colina, clavó el hecho de que se trataba de una impresión de carrera limitada que era parte de un ARG que tuvo lugar el año pasado.

Blake Stimac/Cnet

Gemini adoptó un enfoque muy diferente para identificar esta chaqueta de Silent Hill 2. Hizo 24 preguntas específicas basadas en la información que le di, con mi primera pista de que era de un videojuego. Sin embargo, para la 19ª pregunta, parecía que ya sabía exactamente de qué juego era por las preguntas específicas que me estaba haciendo.

Blake Stimac/Cnet

Este no tardó mucho, pero Gemini originalmente sugirió que este retrato podría ser del autor y poeta estadounidense John Ashbery. Una vez que moví la cámara más cerca de la imagen y dije que era de un programa de televisión, Gemini respondió correctamente: “Esa es la dama de troncos de Twin Peaks, sosteniendo su famoso tronco”.

Blake Stimac/Cnet

Esta fue fácil para Géminis. Inmediatamente reconoció esto como un mazo de tarot de edición limitada que tuvo que ser “ganada” jugando a través de un evento estacional específico en Destiny 2.

Blake Stimac/Cnet

Continue Reading

Noticias

RENDIMIENTO DE CHATGPT y Microsoft Copilot en Bing al responder preguntas de ultrasonido obstétrico y analizar informes de ultrasonido obstétrico

Published

on

Este estudio evaluó la precisión y consistencia de los modelos AI (CHATGPT-3.5, CHATGPT-4.0 y Copilot) para responder preguntas de ultrasonido obstétrico y analizar informes de ultrasonido obstétrico. CHATGPT-3.5 y CHATGPT-4.0 demostraron una precisión y consistencia superiores al responder 20 preguntas relacionadas con el ultrasonido en comparación con el copiloto. Sin embargo, no hubo diferencia estadística entre los modelos (PAG> 0.05 para todos), lo que puede deberse al pequeño tamaño de la muestra. En el análisis e interpretación de los informes de ultrasonido obstétrico, tanto ChatGPT-3.5 como ChatGPT-4.0 exhibieron una precisión significativamente mayor que el copiloto (PAG<0.05), con todos los modelos que muestran alta consistencia.

Estos modelos de lenguaje avanzado han demostrado potencial como ayudas clínicas, ofreciendo respuestas claras y típicamente precisas a cuestiones médicas que son comprensibles por los proveedores de atención médica y los pacientes. Mientras observa su capacidad, es importante caracterizar sus limitaciones16. En este estudio, CHATGPT-3.5, CHATGPT-4.0 y Copilot pueden proporcionar respuestas inconsistentes o no completamente correctas. Por ejemplo, las respuestas de Copilot a la madurez placentaria y la frecuencia del examen de ultrasonido durante el embarazo, la respuesta de ChatGPT-3.5 al índice de líquidos amnióticos y la respuesta de ChatGPT-4.0 al nivel II de madurez placentaria, que se ha informado tres veces pero utilizando diferentes descripciones y resultó en algunas respuestas correctas y incorrectas. La sugerencia final para muchas respuestas generadas por estos modelos fue consultar con la atención médica. Se puede encontrar que los modelos similares a CHATGPT-3.5, CHATGPT-4.0 y Copilot pueden generar texto coherente y gramaticalmente correcto, pero pueden no tener la capacidad de distinguir entre cada paciente, combinar el historial médico del paciente y combinar con los últimos avances en esta tecnología, como lo hacen los expertos humanos en campos específicos.

Para el análisis de los informes de ultrasonido obstétrico, tres LLM pudieron identificar la mayoría de los indicadores anormales y demostrar una alta repetibilidad. La precisión de ChATGPT-3.5, CHATGPT-4.0 y Copilot fue del 83.86%, 84.13%y 77.51%, respectivamente, mientras que su consistencia fue del 87.30%, 93.65%y 90.48%, respectivamente. Sin embargo, al identificar las anormalidades en las mediciones de crecimiento fetal, tres LLM mostraron una precisión más baja, con ChatGPT-3.5 al 59.38%, CHATGPT-4.0 a 60.42%y copiloto al 50.00%. El estudio de Rahsepar AA et al.13demostró que los errores proporcionados por LLM podrían deberse a su capacitación en diversos contenido de Internet, como artículos, libros, Wikipedia, noticias y sitios web, en lugar de literatura e información científica. Otra razón podría ser que los estándares para las mediciones de crecimiento fetal varían en diferentes etnias17lo que hace que los LLM se referen a los estándares que pueden no alinearse con la población incluida en este estudio. En el estudio de Shen Y et al., Se señaló que estos LLM no participan en interacciones para aclarar las preguntas que se les pide que proporcionen respuestas precisas. En cambio, tienden a asumir lo que el usuario quiere escuchar, lo que puede resultar en información inexacta o incompleta16. Además, vale la pena señalar la seguridad de los modelos de IA utilizados en el campo de la medicina. Si el modelo se ve afectado por ataques adversos o insumos erróneos, puede conducir a una interpretación incorrecta de los informes, lo que puede tener graves consecuencias en la toma de decisiones médicas18,19,20.

En dos casos de análisis de informes de ultrasonido obstétrico, Copilot identificó incorrectamente una distancia mayor de 2 cm entre la placenta y el sistema operativo cervical como anormal, etiquetando la condición como “placenta previa” y sugiriendo que podría provocar sangrado durante el parto. La difusión de tal información incorrecta puede causar angustia emocional para la mujer embarazada y toda su familia. Un estudio sugirió que debemos ser cautelosos sobre las aplicaciones potenciales de las aplicaciones complejas de procesamiento del lenguaje natural en la atención médica21. Los resultados de la investigación de Ayers JW et al. demostró que ChatGPT puede proporcionar respuestas empáticas y de alta calidad a las preguntas del paciente planteadas en los foros en línea, con el 78.6% de los evaluadores que prefieren las respuestas de chatbot22. Sin embargo, los estudios han destacado que es crucial reconocer que las respuestas de chatbot pueden no ser siempre precisas, ya que sus conjuntos de datos de entrenamiento pueden contener información sesgada, lo que puede conducir a respuestas alucinadas13. Estos son similares a nuestros resultados de investigación, donde los LLM pudieron analizar cada informe de ultrasonido y proporcionar recomendaciones y opiniones detalladas, aunque los resultados de sus análisis no fueron del todo precisos.

Al comparar los resultados de análisis de los informes de ultrasonido entre ChatGPT-3.5, ChatGPT-4.0 y Copilot, se descubrió que, aunque ChATGPT demostró una precisión general más alta que el copiloto, cada software tiene sus propias fortalezas y debilidades. Las respuestas generadas por ChatGPT-3.5 fueron más concisas y claras, y también proporcionaron recomendaciones para cada informe. Las respuestas generadas por ChatGPT-4.0 fueron muy detalladas e integrales, y se proporcionó un resumen al final de cada respuesta. Las respuestas de Copilot analizaron cada elemento de acuerdo con la estructura de los informes de ultrasonido, lo que resulta en recomendaciones finales más detalladas e integrales.

Hay varias limitaciones para este estudio. Primero, solo se diseñaron veinte preguntas relacionadas con la ecografía obstétrica y se analizaron 110 informes de ultrasonido obstétrico. Expandir el tamaño de la muestra, especialmente con muestras de diferentes modalidades, validaría mejor la estabilidad y la precisión de la aplicación de LLM en el campo de la medicina. En segundo lugar, los avances recientes en las redes de fusión de decisiones han mostrado un éxito significativo en la clasificación de imágenes, especialmente en la fusión multimodal y la toma de decisiones de tareas múltiples23,24. En este estudio, solo se analizaron datos textuales relacionados con la ultrasonido obstétrico. Los datos multimodales se explorarían en futuras investigaciones, lo que puede producir resultados diferentes. Tercero, la evaluación de las respuestas generadas por los LLMS fue realizada por médicos de ultrasonido con diferentes antigüedad. Los estudios futuros podrían incluir obstetras o expertos en medicina materna fetal, que son altamente calificadas y competentes en la interpretación de ultrasonidos obstétricos y pueden proporcionar orientación clínica experta.

En resumen, estos modelos de inteligencia artificial (CHATGPT-3.5, CHATGPT-4.0 y Copilot de Microsoft en Bing) tienen el potencial de ayudar a los flujos de trabajo clínicos al mejorar la educación del paciente y la comunicación clínica del paciente en torno a problemas comunes de ultrasonido obstétrico. Sin embargo, dadas las respuestas inconsistentes y a veces inexactas, así como las preocupaciones de ciberseguridad, la supervisión del médico es crucial en el uso de estos modelos.

Continue Reading

Noticias

La nueva fuga de Google revela cambios de suscripción para Gemini AI

Published

on

De un vistazo

  • Google está preparando nuevas formas de pagar por sus servicios de IA avanzados de Gemini
  • Los nuevos planes no se han anunciado oficialmente, pero se mencionan en el último código para la aplicación Google Photos.
  • Los planes propuestos se llaman actualmente “Ai Premium Plus” y “Ai Premium Pro”.

Google está trabajando en nuevos planes de suscripción de IA que podrían ofrecer formas alternativas de comprar acceso a la opción Gemini Advanced de la compañía, que permite los modelos de IA y las características premium más capaces de Google.

Actualización del 25 de abril a continuación: este artículo se publicó originalmente el 23 de abril.

Actualmente solo hay una forma de comprar Gemini Advanced, y es para comprar un Plan premium de Google One AI por $ 19.99 por mes. Sin embargo, es probable que esto cambie de acuerdo con un reciente Autoridad de Android Informe que revela dos nuevos planes de suscripción secretos ocultos dentro del código de la última aplicación de Google Photos.

Niveles de suscripción de IA avanzados de Gemini: ¿cómo están cambiando?

Las posibles suscripciones, actualmente llamadas “Premium Plus AI” y “Premium AI Pro”, se encuentran junto con la opción “Premium AI” existente y los otros niveles de suscripción que no son de Google, incluido el reciente nivel “Lite” que era revelado por el mismo método el año pasado.

El informe no encuentra más información sobre el precio o las capacidades de estos dos planes nuevos. De hecho, incluso los nombres pueden cambiar antes del lanzamiento. Sin embargo, podemos especular que tanto “Premium Plus AI” como “Premium AI Pro” ofrecerán más que el plan actual “Premium” y, por lo tanto, probablemente cuestan más. Aquellos que esperen una forma significativamente más barata de comprar Géminis avanzado probablemente no estarán sin suerte.

Google ya ha revelado, a través de incógnitaplanea ofrecer una versión anual con descuento de la suscripción actual de Google One AI AI Premium. Sin embargo, es poco probable que esto se alinee con cualquiera de los nuevos niveles, ya que la compañía generalmente mantiene el mismo nombre para las versiones mensuales y anuales de cada suscripción. Esta suscripción anual prometida probablemente seguirá siendo la única forma de pagar menos por Gemini Advanced que usted en este momento.

Los nuevos niveles de suscripción de IA avanzados de Gemini de Google: ¿por qué importan?

Agregar nuevos planes de suscripción le daría a Google una mayor flexibilidad en la forma en que cobra la alimentación y las características de la computación.

Además del acceso a Gemini Advanced, el paquete actual de Google One Ai Premium incluye 2 TB de almacenamiento en la nube, así como Géminis en Gmail y Docs, Cuaderno de cuaderno másy características mejoradas con AI en Google Photos. Los nuevos niveles podrían agregar características adicionales a esta lista o incluso eliminar algunas de ellas.

¿Qué características adicionales podrían incluir Google en sus nuevos niveles Gemini Advanced Premium y Pro?

Google recientemente Soporte agregado Para su herramienta de generación de videos VEO 2 AI para la aplicación Gemini para usuarios avanzados de Gemini. Sin embargo, los usuarios están limitados en términos del número de videoclips de ocho segundos que pueden crear por mes. Los nuevos niveles de suscripción de Google podrían proporcionar límites más altos, videos más largos o una mayor resolución, por ejemplo.

Los nuevos niveles también crearían una oportunidad de ventas significativa para Google: los teléfonos inteligentes premium, como la serie Pixel 9 Pro o Samsung Galaxy S25, vienen con suscripciones gratuitas de Google One Ai Premium de hasta 12 meses. Los nuevos niveles de nivel superior de Google permitirían a la compañía mejorar los planes de IA para aquellos usuarios que de otro modo no gastarían en Google AI por hasta un año, o incluso más si la compañía continúa ofreciendo suscripciones gratuitas con futuros teléfonos inteligentes insignia.

Puede esperar obtener más información sobre Géminis avanzado en Google E/S mes próximo.

Actualización del 23 de abril: Se agregaron posibles escenarios de actualización y asesoramiento de suscripción

Los nuevos planes de suscripción de IA de Google: ¿qué podrían ofrecer?

Por ahora, solo podemos especular sobre lo que podrían ofrecer los nuevos niveles de suscripción Gemini Ai Premium Plus y AI Premium Pro de Google sobre la oferta avanzada actual de Gemini.

Las actualizaciones probables incluyen:

  • Calidad mejorada para imágenes y videos generados por IA: resoluciones más altas y duraciones más largas para las creaciones VEO 2.
  • Menos límites: límites de uso diarios o mensuales reducidos en planes más caros.
  • Contexto más grande Windows: envíe archivos más grandes y videos más largos a Gemini para su análisis y procesamiento.
  • Nuevas características: Google podría agregar características completamente nuevas y modelos más potentes a suscripciones más caras antes.

Los nuevos planes de suscripción de IA de Google: ¿un cambio de nombre simple?

Una posibilidad, aunque creo que es poco probable, es que los niveles AI Premium Plus y AI Premium Pro de Google no ofrecerán nada nuevo en absoluto.

Cuando Google hizo que Gemini avanzó por primera vez a través de su plan premium de AI de Google One 2TB, los clientes que ya se habían suscrito a los niveles de suscripción “Premium 5 5” más caros de la compañía, “Premium 10TB” y “Premium 20TB” se quedaron fuera. Ninguna de estas opciones costosas incluía a Gemini Advanced, y la única forma de obtenerlo era degradar al plan premium de AI 2TB.

Google ahora ha agregado a Gemini avanzado a estos planes de mayor capacidad, pero sus nombres ahora son algo anómalos, ya que ninguno de ellos hace referencia a IA en el título.

Entonces, para Google, tendría sentido agregar algo de marca Gemini AI a estos planes. Los nombres ‘AI Premium Plus “y” Ai Premium Pro “ciertamente encajarían. Sin embargo, espero que veamos características adicionales de IA incluidas en los nuevos planes de suscripción, en lugar de solo una mayor capacidad de almacenamiento.

Google One AI Premium: no compre una suscripción anual

Curiosamente, Google One Premium 5 TB es actualmente la única opción que permite a los clientes comprar una suscripción anual con descuento a Gemini Advanced. Sin embargo, recomiendo que no compre cualquier suscripción anual de IA por ahora, a menos que pueda obtenerla con un descuento considerable.

Simplemente hay demasiada competencia en el espacio de IA en este momento, con ofertas convincentes disponibles de otros servicios, como ChatGPT, Perplexity y Claude, por nombrar solo algunos, todos compitiendo por sus tarifas de suscripción. Se agregan nuevas características todo el tiempo, con servicios competitivos a menudo se saltan entre sí en términos de capacidad.

También vale la pena señalar que Google tiene la costumbre de hacer que las funciones de IA premium estén disponibles para usuarios gratuitos, lo que potencialmente devalúa suscripciones pagas. Las características premium notables que ahora están disponibles gratis incluyen Gemini Live Cámaras y compartir la pantalla, Investigación profunday Géminis 2.5 Pro (Experimental), aunque pueden aplicarse límites de uso más bajos.

Con esto en mente, es sensato cumplir con una suscripción mensual para evitar encerrarse en un servicio que ya no se sienta como la mejor opción mucho antes de que termine su suscripción.

Seguir @Paul_Monckton en Instagram.

ForbesLa actualización de Google Photos desbloquea impresionante Ultra HDR para todas sus imágenesForbesAndroid recibe una actualización de IA de próxima generación mientras iPhone se pierde

Continue Reading

Trending