Connect with us

Noticias

ChatGPT’s search capabilities take aim at Google

Published

on

Photo by Growtika on Unsplash.

ChatGPT can now answer search queries, challenging Google’s hold on the sector.

It’s been a wild ride for OpenAI’s generative AI technology over the last 18 months, with both highs – YouGov research that showed around three-quarters of Millennials and Gen X would purchase a product based on the chatbot’s recommendations, plus the introduction of voice and image capabilities over a year ago – and lows, having to pay publishers to use their content and backlash to a deal with Apple.

Its latest move sees the chatbot able to “retrieve and deliver information from across the internet in real time, including news, stock prices and sports scores,” according to the New York Times.

Looking at how it compares to competitors – not just the Google, but also Bing, Yahoo, DuckDuckGo and others – Kinesso’s national head of AI and Analytics, Kellyn Coetzee, said ChatGPT Search’s ability to access recent, paywalled content sets it apart from traditional search engines.

“It’s like having a research assistant with an all-access pass to top publications,” she said.

“This could revolutionise how we understand and respond to market trends, giving our clients a significant advantage in the fast-paced Australian market.”

Spark Foundry Australia’s national head of biddable media, Greg Cattelain, said that while it’s still early days to be able to compare like for like, what the Publicis-owned agency has seen in the last week is that the technology is doing a good job of synthesising information and providing the sources of its summaries for users.

“It also includes visuals, interactive charts and maps, which is a good start,” he told AdNews.

“Currently, however, it lacks many features that make traditional search engines unique, such as shopping and travel booking. We’ll just need to wait and see how SearchGPT evolves over time.”

Orange Line’s head of SEO, Veronika Warren, said that for informational or educational queries, ChatGPT Search excels due to the conversational nature of the responses, ease of use and interactivity, and the ability to seamlessly deep dive into a particular area of information.

“Users may find it more convenient to use than traditional search results that require them to manage multiple tabs, read multiple sources until they find what they’re after and spend time deciphering it,” she said.

“For transactional queries though, there are limitations. For example, when searching for a fabric sofa, as part of the experience, users expect rich visual results and immediate product comparisons. The ability to incorporate visual elements is not refined at this stage in ChatGPT Search, making it more likely for users to stick to platforms like Google for queries that allow them to find products in as little moves as possible.”

Warren said it’s also important to keep in mind that YouTube, TikTok and Instagram are all search engines in themselves too.

“Until ChatGPT Search develops robust visual capabilities that align with specific user search behaviors, its competitive advantage will remain largely confined to text-based information exchange and knowledge discovery,” she said.

“At the end of the day, the ability to compete with established search engines will at least partially depend on the number of moves it requires the user to make to complete their journey.”

Strength in conversational capabilities, but limits in functionality

Available now to those who use ChatGPT Plus – the paid version of the product – along with its ChatGPT Team product designed for businesses, Open AI will be rolling out the search functionality for ChatGPT Enterprise and ChatGPT Edu users in the next few weeks.

Free users of the platform will receive access “over the coming months”, according to a post from the company.

Cattelain said that one of the strengths of ChatGPT Search includes delivering information directly to users, eliminating the need to click through multiple links and navigate the clutter typical of traditional search engines.

“Weaknesses lie in the fact that it is currently still limited in functionality, as well as not integrated into our current search behaviour; however, this may change over time,” he said.

Orange Line’s Warren said that outside of potential concerns of accuracy and bias, the platform’s strengths lie in its conversational capabilities, particularly in text-based interactions and knowledge transfer.

“Its ability to maintain context and deliver nuanced responses sets it apart from traditional search engines,” she told AdNews.

“But its weaknesses extend beyond just visual constraints. For content publishers, there may be potential revenue challenges as users may remain within ChatGPT’s environment rather than visiting individual websites directly.

“The platform’s reliance on Bing’s search index and news publisher partnerships also introduces potential biases that merit consideration.”

Coetzee agreed that the strength of ChatGPT Search lies in its access to premium, up-to-date content and its conversational interface, but said that questions about copyright and fair use still abound.

“The potential for AI hallucinations, while diminishing, also remains a concern,” she said.

Kellyn Coetzee, Greg Cattelain, Veronica Warren and Nicholas Chin

L to R: Kellyn Coetzee, Greg Cattelain, Veronika Warren and Nicholas Chin.

Not likely to kill off Google anytime soon

Although it’s too soon to tell how many people have used its search functionality since launch, Open AI announced in August that the overall ChatGPT platform boasted more than 200 million weekly active users, according to a Reuters report. 

Similarly, the number of people who use Google to search every day is unknown, but one source estimates that there’s over 8.3 billion searches performed every day.

The US Department of Justice, in its ruling earlier in the year declaring Google as a monopolist, said that in the United States at least, nearly 90% of all search queries went through Google, with that number being even higher on mobile devices.

Google started rolling out its own AI search product in Australia at the start of November, using generative AI to create a snapshot about a topic or question, along with key information and links to dig deeper.

As a result of this domination, media agencies AdNews spoke to found it unlikely that ChatGPT Search would have any major effect on Google.

OMD Australia’s national head of performance, Nicholas Chin, said that for now, Google, SearchGPT and other AI search products like Perplexity will have their own swim lanes and cater to the evolving search needs of different consumers.

“SearchGPT, for example, has been built to be a concise, authoritative and real-time search query console – almost like a personal helper that can give you the updated answers you need right now, with sources to match,” he said.

“Google AI Overviews, on the other hand, is seamlessly integrated into the everyday Google search experience that we’re all used to and integrates better with other Google services, like Maps or Shopping.

“Multi-modal search and the evolving search experience from the Google search bar now also means there are more search experiences available for both the consumer and technology vendors. Take social search in the creator economy, or multi-modal search using video, audio and images as green pastures for all to have their space to play.”

Chin said that outside of the search experience, the future success of search engines will continue to depend on integration and partnerships with other services.

“OpenAI has been clear that they will eventually integrate SearchGPT with ChatGPT in the future, and with ChatGPT being the backup data source for Apple Intelligence in new Apple devices, this trojan horse strategy could be the key to widespread adoption of the SearchGPT platform,” he told AdNews.

“On the flip side, data privacy is still a thorn in the side for the major tech platforms. To use SearchGPT to its greatest potential, you are required to pass over more of your data to yet another platform.

“OpenAI has had a bumpy ride on the privacy front, so if Google AI Overviews is an equivalent search engine, will consumers want to hand over their data to another provider and will this hurt OpenAI’s progress?”

Warren agreed that Google is an established habit that is driving billions of dollars of revenue to the business, and that while ChatGPT search may take away some market share, they will need to find ways to bypass the years of experience Google has had to develop their product.

“For ChatGPT to truly compete, it will need to not only surpass usability, but also bring something unique and compelling that addresses unmet needs or provides a distinct value, redefining what users expect from search itself,” she said.

“Each platform serves distinct user needs – Google for comprehensive results, Pinterest for visual discovery, YouTube for video content, and now ChatGPT Search for conversational knowledge exploration. This specialisation suggests we’re moving toward a more fragmented search landscape.”

Kinesso’s Coetzee said that in Australia alone, ChatGPT is estimated to have 3 to 4 million monthly users – representing 1.5% to 2% of its global user base – with this rapid growth suggesting a shifting digital landscape.

“However, Google’s ubiquity and integration with other services still give it a significant edge,” she said.

“At Kinesso, we’re preparing for a future where both platforms coexist, each serving distinct user needs in the Australian digital ecosystem. The continued Google monopoly will likely hinge on Google’s ability to adapt to this AI-driven search paradigm and who is first to release AGI and all its implications.”

The capacity for advertisers and monetisation

As OpenAI is a private company, numbers on its revenue to date aren’t widely available, although the New York Times reported that OpenAI’s monthly revenue hit $300 million in August, up 1,700% since the beginning of 2023, and the company expects about $3.7 billion in annual sales in 2024.

OpenAI also estimated that its revenue will balloon to $11.6 billion next year.

For Google, meanwhile, its most recent results showed that overall advertising revenue hit $64.6 billion, while search advertising revenue was up 13.8% to $48.5 billion.

Looking at the capacity to monetise ChatGPT’s search product, Cattelain said that traditional ways include sponsored links of websites that are the most relevant to ‘learn more’, or product visuals that can best answer the search query.

“New ways could include sponsored citations that are relevant to the query, which would help build brand authority and consideration,” he said.

“There could also be product visualisation based on users’ data, for example rendering how clothes appear directly on a person.”

OMD’s Chin said that shopping and ecommerce brands are the clear winners in the AI search battle, with Google AI Overviews already integrating ads into its AI powered search results.

“But as things change, advertisers will need to evolve their promotional tactics and thinking when promoting products through future search,” he said.

“Things like situation context for content listings, usage examples or authoritative reviews are the new tools for search practitioners and will involve closer ways of working with product and go-to-market teams.”

Warren said that the conversation-first nature of ChatGPT Search demands a fresh approach to monetization, and although traditional advertising models may not translate effectively, there are several avenues the platform could explore.

“Things like native sponsored content integrated naturally into conversations, or enhanced analytics and insights for advertisers could see users paying for a more premium subscription,” she told AdNews.

“But success will really depend on maintaining the platform’s inherent value while introducing revenue-generating features that enhance rather than diminish the user experience. The future of ChatGPT Search hinges on its ability to balance innovation with practicality, pushing boundaries while meeting established user expectations.”

Coetzee said the monetisation potential for ChatGPT Search has expanded significantly with its ability to access paywalled content, giving it a leg up on traditional search.

“We could see a model where premium publications partner with OpenAI, receiving compensation for their content being used in responses,” she said.

“For advertisers, this opens up new avenues for reaching high-value audiences who consume premium content. We know Perplexity is working on a CPM buying model which is a bit different to how traditional search buyers have historically dabbled in search bidding.

“While we are yet to see what Search GPT ad model will look like, we’re exploring how this could lead to more sophisticated, content-integrated advertising strategies.”

Have something to say on this? Share your views in the comments section below. Or if you have a news story or tip-off, drop us a line at adnews@yaffa.com.au

Sign up to the AdNews newsletter, like us on Facebook or follow us on Twitter for breaking stories and campaigns throughout the day.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Google Assistant ya no es lo que solía ser

Published

on

He usado varios altavoces inteligentes impulsados ​​por Google Assistant durante bastante tiempo. El primer dispositivo que recogí fue el nido mini, que fue seguido por el cubo de nidos y el cubo de nido max. Tengo un altavoz en cada habitación, por lo que mi gente y yo podemos usar el Asistente de Google para pedir consultas, reproducir canciones, recibir actualizaciones de noticias y controlar nuestros dispositivos IoT en casa, independientemente de dónde estamos. Hasta el año pasado, estos dispositivos funcionaron bien. Ninguno de nosotros tuvo problemas con ellos, y se desempeñaron como se esperaba.

Sin embargo, hace unos meses, mi madre notó problemas estableciendo recordatorios en el centro de nidos. Las canciones que solía tocar regularmente en el altavoz eran más difíciles de tocar porque Google Assistant tuvo dificultades para reconocer la canción requerida. Entonces, llevé a cabo una resolución de problemas de rutina. Sin embargo, eso no solucionó el problema. Entonces, busqué soluciones en línea. No tardó mucho en darse cuenta de que los usuarios de todo el mundo tenían problemas con el Asistente de Google en sus dispositivos Nest. La línea de tiempo coincidió con el despliegue generalizado de Géminis. Puse dos y dos juntos y descubrí lo que estaba pasando.

Relacionado

5 Limitaciones de Gemini Live que odio ya que el Asistente de Google puede hacerlas bien

Un trabajo en progreso

El inicio de Géminis

Ai en todo

Un gráfico que destaca varias de las nuevas capacidades de Gemini.

Fuente: Google

Regularmente uso el Asistente de Google, no solo en los altavoces inteligentes sino en mi teléfono. Junto con eso, soy uno de los primeros en adoptar nuevas tecnologías. Entonces, cuando Google lanzó Gemini, opté a la versión beta después de recibir el mensaje. Mis impresiones iniciales de Géminis fueron mixtas. Si bien podría darme más información que el Asistente de Google cuando se le preguntó una determinada consulta, no podría realizar tareas básicas, como tomar notas.

He estado haciendo esto todo el tiempo con el Asistente de Google, así que me perdí que no funcionó como se esperaba. Avance rápido hasta unos días, y me di cuenta de que Géminis no podía hacer la mitad de las cosas que Google Assistant podía. Asumí que esto se debió a la construcción beta, pero la tendencia continuó después del lanzamiento estable de Géminis. Esto me frustró, pero me alegré de que mi Galaxy Watch 4 todavía corriera el Asistente de Google.

La caída del Asistente de Google

¿Cuándo se convirtió en Siri?

El Asistente de Google establece un recordatorio en Galaxy Watch 4

Usé mi Galaxy Watch 4 para realizar tareas básicas como configurar recordatorios y tomar notas. Sin embargo, no era tan bueno como solía ser. Pensé que esto se debía al micrófono inferior en el reloj inteligente en comparación con mi teléfono. Cuando vi múltiples publicaciones en foros en línea sobre el Asistente de Google actuando, me di cuenta de que no era un problema con el micrófono, sino más bien con el asistente de salida de Google para priorizar a Gemini.

Los chatbots de IA y los asistentes generativos de IA se han apoderado del mundo. Cada compañía está ocupada construyendo modelos de IA, ya que es la nueva palabra de moda. Cuando Operai exhibió su chatgpt ai chatbot, Google fue criticado por rezagarse en la carrera de IA. Entonces, tuvo que cambiar rápidamente su enfoque en presentar Géminis (entonces Bard) al público. Después de que la compañía hizo eso, parece que asignó todos sus recursos a desarrollar Gemini mientras dejaba de lado el Asistente de Google.

Gracias a esto, el Asistente de Google recibió el tratamiento infantil ignorado. Con la mayoría de los servidores y la potencia de procesamiento dedicada a Gemini, Google Assistant comenzó a perder la trama. En los últimos meses, el asistente dejó de reconocer los nombres de contacto que solía antes, lleva mucho tiempo realizar una tarea básica, como tocar una canción, no detecta qué canción estoy tratando de tocar en los primeros intentos, a menudo reproduce la canción equivocada, me da el clima de una ciudad diferente en lugar de la que pedí, me piden un error para actualizar la aplicación de Google para que actúe una cierta función si la aplicación es la última versión en la última versión en la última versión en la última versión en el fracaso de las ocasiones.

Experimenté estos problemas con configuraciones de idiomas de Google Assistant in English (US) e English (India). Si bien el inglés (India) fue un poco mejor, no introdujo ningún cambio notable en el comportamiento del Asistente de Google.

Estoy frustrado de que no detecte la palabra de vigilia, especialmente cuando usa Google Assistant en Android Auto, el único lugar donde no quiero que falle, ya que las instrucciones de voz son la única forma segura de realizar ciertas acciones al conducir. La única inferencia que se puede extraer de estos problemas es que Google ha perdido interés en mantener el Asistente de Google. Esto se confirmó a través del anuncio de Google sobre el reemplazo del asistente con Gemini. Como resultado, la última versión de Android Auto trae a Gemini a su automóvil en lugar de asistente.

Relacionado

La era del Asistente de Google ha terminado

¿Géminis es el futuro de los asistentes de IA? Google piensa que sí

Dejé de usar dispositivos de nido

En su lugar me cambié a Alexa

Un altavoz de audio nido frente a una pila de libros.

Después de molestarme con las travesuras de Google, reemplacé los altavoces del nido en casa con la alineación de eco de Amazon. No hay tales problemas con Alexa, ya que el asistente entiende todo, desde la palabra de vigilia hasta los comandos. Alexa siempre ha estado ligeramente detrás del Asistente de Google en términos de características, por lo que, si bien eso sigue siendo, estoy feliz de que satisfaga todas las necesidades de mi asistente de voz sin problemas.

Sin embargo, Amazon anunció recientemente un cambio de imagen de IA para Alexa, Alexa Plus, que comenzará a llegar a las masas en breve. Esperaremos para ver cómo funciona. Con suerte, mejora las habilidades de Alexa en lugar de paralizarlas.

Tengo la esperanza de que Gemini mejore con el tiempo

Google no tiene otra opción que arreglarlo

Se abre un teléfono Samsung Galaxy en un teclado portátil con la aplicación Google Gemini

Con el asistente del último participante en el cementerio de Google, supongo que Google lanzará actualizaciones para cambiar los altavoces y las pantallas de Google Assistant a Gemini. No estoy ansioso por eso, ya que Gemini no puede realizar tareas básicas con precisión, que es algo que hemos visto con AI. Aún así, espero que mejore el estado actual de estos dispositivos para que puedan ser útiles una vez más en lugar de ser pisapapeles caros.

Continue Reading

Noticias

Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado

Published

on

Crédito: Markus Winkler de Pexels

Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.

Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.

Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.

Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.

¿Cómo funcionará el chatbot Gemini AI?

Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.

Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.

El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.

Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.

¿Qué tipo de información proporcionará el sistema?

Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.

Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “inmediato”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.

Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso profesionales altamente calificados, como abogados, han sido engañados para usar contenido falso generado por ChatGPT y otros chatbots.

¿El contenido generado será apropiado para la edad?

Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.

Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder a contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.

Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.

¿Qué riesgos plantean los chatbots de IA para los niños?

La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.

El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que sean peligrosos”. El aviso destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas de computadora y qué hacer al respecto”.

Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas basadas en las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.

Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.

Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.

¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?

Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.

Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben educarse en cómo todo tipo de herramientas digitales se pueden usar de manera adecuada y segura.

Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.

Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.

Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.

Proporcionado por la conversación

Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.La conversación

Citación: Google está implementando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado (2025, 11 de mayo) recuperado el 11 de mayo de 2025 de https://techxplore.com/news/2025-05-google-gemini-ai-chatbot-kids.html

Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.

Continue Reading

Noticias

Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini

Published

on

En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.

!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala

Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.

import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"




!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala

Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.

import sys
sys.path.append('/content/Adala')

Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.

!pip install -q google-generativeai pandas matplotlib


import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass

Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.

try:
    from Adala.adala.annotators.base import BaseAnnotator
    from Adala.adala.strategies.random_strategy import RandomStrategy
    from Adala.adala.utils.custom_types import TextSample, LabeledSample
    print("Successfully imported Adala components")
except Exception as e:
    print(f"Error importing: e")
    print("Falling back to simplified implementation...")

Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.

GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)

Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.

CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]


class GeminiAnnotator:
    def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
        self.model = genai.GenerativeModel(model_name=model_name,
                                          generation_config="temperature": 0.1)
        self.categories = categories
       
    def annotate(self, samples):
        results = []
        for sample in samples:
            prompt = f"""Classify this medical symptom into one of these categories:
            ', '.join(self.categories).
            Return JSON format: "category": "selected_category",
            "confidence": 0.XX, "explanation": "brief_reason"
           
            SYMPTOM: sample.text"""
           
            try:
                response = self.model.generate_content(prompt).text
                json_match = re.search(r'(\.*\)', response, re.DOTALL)
                result = json.loads(json_match.group(1) if json_match else response)
               
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': result["category"],
                    'metadata': 
                        "confidence": result["confidence"],
                        "explanation": result["explanation"]
                    
                )
            except Exception as e:
                labeled_sample = type('LabeledSample', (), 
                    'text': sample.text,
                    'labels': "unknown",
                    'metadata': "error": str(e)
                )
            results.append(labeled_sample)
        return results

Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.

sample_data = [
    "Chest pain radiating to left arm during exercise",
    "Persistent dry cough with occasional wheezing",
    "Severe headache with sensitivity to light",
    "Stomach cramps and nausea after eating",
    "Numbness in fingers of right hand",
    "Shortness of breath when climbing stairs"
]


text_samples = [type('TextSample', (), 'text': text) for text in sample_data]


annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []

Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.

print("\nRunning Active Learning Loop:")
for i in range(3):  
    print(f"\n--- Iteration i+1 ---")
   
    remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
    if not remaining:
        break
       
    scores = np.zeros(len(remaining))
    for j, sample in enumerate(remaining):
        scores[j] = 0.1
        if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
            scores[j] += 0.5  
   
    selected_idx = np.argmax(scores)
    selected = [remaining[selected_idx]]
   
    newly_labeled = annotator.annotate(selected)
    for sample in newly_labeled:
        sample._sample = selected[0]  
    labeled_samples.extend(newly_labeled)
   
    latest = labeled_samples[-1]
    print(f"Text: latest.text")
    print(f"Category: latest.labels")
    print(f"Confidence: latest.metadata.get('confidence', 0)")
    print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")

Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.

categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]


plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()

Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.

En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.


Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.

Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:


Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.

Continue Reading

Trending