Connect with us

Noticias

ChatGPT’s search capabilities take aim at Google

Published

on

Photo by Growtika on Unsplash.

ChatGPT can now answer search queries, challenging Google’s hold on the sector.

It’s been a wild ride for OpenAI’s generative AI technology over the last 18 months, with both highs – YouGov research that showed around three-quarters of Millennials and Gen X would purchase a product based on the chatbot’s recommendations, plus the introduction of voice and image capabilities over a year ago – and lows, having to pay publishers to use their content and backlash to a deal with Apple.

Its latest move sees the chatbot able to “retrieve and deliver information from across the internet in real time, including news, stock prices and sports scores,” according to the New York Times.

Looking at how it compares to competitors – not just the Google, but also Bing, Yahoo, DuckDuckGo and others – Kinesso’s national head of AI and Analytics, Kellyn Coetzee, said ChatGPT Search’s ability to access recent, paywalled content sets it apart from traditional search engines.

“It’s like having a research assistant with an all-access pass to top publications,” she said.

“This could revolutionise how we understand and respond to market trends, giving our clients a significant advantage in the fast-paced Australian market.”

Spark Foundry Australia’s national head of biddable media, Greg Cattelain, said that while it’s still early days to be able to compare like for like, what the Publicis-owned agency has seen in the last week is that the technology is doing a good job of synthesising information and providing the sources of its summaries for users.

“It also includes visuals, interactive charts and maps, which is a good start,” he told AdNews.

“Currently, however, it lacks many features that make traditional search engines unique, such as shopping and travel booking. We’ll just need to wait and see how SearchGPT evolves over time.”

Orange Line’s head of SEO, Veronika Warren, said that for informational or educational queries, ChatGPT Search excels due to the conversational nature of the responses, ease of use and interactivity, and the ability to seamlessly deep dive into a particular area of information.

“Users may find it more convenient to use than traditional search results that require them to manage multiple tabs, read multiple sources until they find what they’re after and spend time deciphering it,” she said.

“For transactional queries though, there are limitations. For example, when searching for a fabric sofa, as part of the experience, users expect rich visual results and immediate product comparisons. The ability to incorporate visual elements is not refined at this stage in ChatGPT Search, making it more likely for users to stick to platforms like Google for queries that allow them to find products in as little moves as possible.”

Warren said it’s also important to keep in mind that YouTube, TikTok and Instagram are all search engines in themselves too.

“Until ChatGPT Search develops robust visual capabilities that align with specific user search behaviors, its competitive advantage will remain largely confined to text-based information exchange and knowledge discovery,” she said.

“At the end of the day, the ability to compete with established search engines will at least partially depend on the number of moves it requires the user to make to complete their journey.”

Strength in conversational capabilities, but limits in functionality

Available now to those who use ChatGPT Plus – the paid version of the product – along with its ChatGPT Team product designed for businesses, Open AI will be rolling out the search functionality for ChatGPT Enterprise and ChatGPT Edu users in the next few weeks.

Free users of the platform will receive access “over the coming months”, according to a post from the company.

Cattelain said that one of the strengths of ChatGPT Search includes delivering information directly to users, eliminating the need to click through multiple links and navigate the clutter typical of traditional search engines.

“Weaknesses lie in the fact that it is currently still limited in functionality, as well as not integrated into our current search behaviour; however, this may change over time,” he said.

Orange Line’s Warren said that outside of potential concerns of accuracy and bias, the platform’s strengths lie in its conversational capabilities, particularly in text-based interactions and knowledge transfer.

“Its ability to maintain context and deliver nuanced responses sets it apart from traditional search engines,” she told AdNews.

“But its weaknesses extend beyond just visual constraints. For content publishers, there may be potential revenue challenges as users may remain within ChatGPT’s environment rather than visiting individual websites directly.

“The platform’s reliance on Bing’s search index and news publisher partnerships also introduces potential biases that merit consideration.”

Coetzee agreed that the strength of ChatGPT Search lies in its access to premium, up-to-date content and its conversational interface, but said that questions about copyright and fair use still abound.

“The potential for AI hallucinations, while diminishing, also remains a concern,” she said.

Kellyn Coetzee, Greg Cattelain, Veronica Warren and Nicholas Chin

L to R: Kellyn Coetzee, Greg Cattelain, Veronika Warren and Nicholas Chin.

Not likely to kill off Google anytime soon

Although it’s too soon to tell how many people have used its search functionality since launch, Open AI announced in August that the overall ChatGPT platform boasted more than 200 million weekly active users, according to a Reuters report. 

Similarly, the number of people who use Google to search every day is unknown, but one source estimates that there’s over 8.3 billion searches performed every day.

The US Department of Justice, in its ruling earlier in the year declaring Google as a monopolist, said that in the United States at least, nearly 90% of all search queries went through Google, with that number being even higher on mobile devices.

Google started rolling out its own AI search product in Australia at the start of November, using generative AI to create a snapshot about a topic or question, along with key information and links to dig deeper.

As a result of this domination, media agencies AdNews spoke to found it unlikely that ChatGPT Search would have any major effect on Google.

OMD Australia’s national head of performance, Nicholas Chin, said that for now, Google, SearchGPT and other AI search products like Perplexity will have their own swim lanes and cater to the evolving search needs of different consumers.

“SearchGPT, for example, has been built to be a concise, authoritative and real-time search query console – almost like a personal helper that can give you the updated answers you need right now, with sources to match,” he said.

“Google AI Overviews, on the other hand, is seamlessly integrated into the everyday Google search experience that we’re all used to and integrates better with other Google services, like Maps or Shopping.

“Multi-modal search and the evolving search experience from the Google search bar now also means there are more search experiences available for both the consumer and technology vendors. Take social search in the creator economy, or multi-modal search using video, audio and images as green pastures for all to have their space to play.”

Chin said that outside of the search experience, the future success of search engines will continue to depend on integration and partnerships with other services.

“OpenAI has been clear that they will eventually integrate SearchGPT with ChatGPT in the future, and with ChatGPT being the backup data source for Apple Intelligence in new Apple devices, this trojan horse strategy could be the key to widespread adoption of the SearchGPT platform,” he told AdNews.

“On the flip side, data privacy is still a thorn in the side for the major tech platforms. To use SearchGPT to its greatest potential, you are required to pass over more of your data to yet another platform.

“OpenAI has had a bumpy ride on the privacy front, so if Google AI Overviews is an equivalent search engine, will consumers want to hand over their data to another provider and will this hurt OpenAI’s progress?”

Warren agreed that Google is an established habit that is driving billions of dollars of revenue to the business, and that while ChatGPT search may take away some market share, they will need to find ways to bypass the years of experience Google has had to develop their product.

“For ChatGPT to truly compete, it will need to not only surpass usability, but also bring something unique and compelling that addresses unmet needs or provides a distinct value, redefining what users expect from search itself,” she said.

“Each platform serves distinct user needs – Google for comprehensive results, Pinterest for visual discovery, YouTube for video content, and now ChatGPT Search for conversational knowledge exploration. This specialisation suggests we’re moving toward a more fragmented search landscape.”

Kinesso’s Coetzee said that in Australia alone, ChatGPT is estimated to have 3 to 4 million monthly users – representing 1.5% to 2% of its global user base – with this rapid growth suggesting a shifting digital landscape.

“However, Google’s ubiquity and integration with other services still give it a significant edge,” she said.

“At Kinesso, we’re preparing for a future where both platforms coexist, each serving distinct user needs in the Australian digital ecosystem. The continued Google monopoly will likely hinge on Google’s ability to adapt to this AI-driven search paradigm and who is first to release AGI and all its implications.”

The capacity for advertisers and monetisation

As OpenAI is a private company, numbers on its revenue to date aren’t widely available, although the New York Times reported that OpenAI’s monthly revenue hit $300 million in August, up 1,700% since the beginning of 2023, and the company expects about $3.7 billion in annual sales in 2024.

OpenAI also estimated that its revenue will balloon to $11.6 billion next year.

For Google, meanwhile, its most recent results showed that overall advertising revenue hit $64.6 billion, while search advertising revenue was up 13.8% to $48.5 billion.

Looking at the capacity to monetise ChatGPT’s search product, Cattelain said that traditional ways include sponsored links of websites that are the most relevant to ‘learn more’, or product visuals that can best answer the search query.

“New ways could include sponsored citations that are relevant to the query, which would help build brand authority and consideration,” he said.

“There could also be product visualisation based on users’ data, for example rendering how clothes appear directly on a person.”

OMD’s Chin said that shopping and ecommerce brands are the clear winners in the AI search battle, with Google AI Overviews already integrating ads into its AI powered search results.

“But as things change, advertisers will need to evolve their promotional tactics and thinking when promoting products through future search,” he said.

“Things like situation context for content listings, usage examples or authoritative reviews are the new tools for search practitioners and will involve closer ways of working with product and go-to-market teams.”

Warren said that the conversation-first nature of ChatGPT Search demands a fresh approach to monetization, and although traditional advertising models may not translate effectively, there are several avenues the platform could explore.

“Things like native sponsored content integrated naturally into conversations, or enhanced analytics and insights for advertisers could see users paying for a more premium subscription,” she told AdNews.

“But success will really depend on maintaining the platform’s inherent value while introducing revenue-generating features that enhance rather than diminish the user experience. The future of ChatGPT Search hinges on its ability to balance innovation with practicality, pushing boundaries while meeting established user expectations.”

Coetzee said the monetisation potential for ChatGPT Search has expanded significantly with its ability to access paywalled content, giving it a leg up on traditional search.

“We could see a model where premium publications partner with OpenAI, receiving compensation for their content being used in responses,” she said.

“For advertisers, this opens up new avenues for reaching high-value audiences who consume premium content. We know Perplexity is working on a CPM buying model which is a bit different to how traditional search buyers have historically dabbled in search bidding.

“While we are yet to see what Search GPT ad model will look like, we’re exploring how this could lead to more sophisticated, content-integrated advertising strategies.”

Have something to say on this? Share your views in the comments section below. Or if you have a news story or tip-off, drop us a line at adnews@yaffa.com.au

Sign up to the AdNews newsletter, like us on Facebook or follow us on Twitter for breaking stories and campaigns throughout the day.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte

Published

on

Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.

La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).

Continue Reading

Noticias

¿Hemos perdido el control de la IA? El estudio que sacudió a los investigadores de Openai

Published

on

Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.

Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.

3 Ver galería

Chatgpt

Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.

La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.

Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.

De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.

Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.

3 Ver galería

Γ cam.Γ cam.

(Foto: Generado por chatgpt)

Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.

Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.

Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.

Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.

Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.

“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.

En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.

3 Ver galería

אירוע eriorאירוע erior

Evento de anuncio GPT-4O de Openai

(Foto: Captura de pantalla)

Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.

Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.

Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.

Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.

El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?

Continue Reading

Noticias

Google, OpenAI Target State Leyes en el Plan de Acción de AI

Published

on

Mientras que la administración del presidente Donald Trump se ha centrado en alejarse de la regulación, liderando a los proveedores de IA como Google y OpenAI quieren que el plan de acción de IA pendiente del gobierno incluya una política federal que se adelantan a los crecientes mosaicos de leyes estatales de IA en los Estados Unidos.

La Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP) solicitó los aportes de las partes interesadas sobre el desarrollo de un plan de acción de IA. Recientemente cerró el período de comentarios públicos, recibiendo más de 8,700 presentaciones. OSTP solicitó a las partes interesadas que describieran las acciones prioritarias para apoyar el dominio de los Estados Unidos de la tecnología de IA sin una regulación excesiva que obstaculice la innovación del sector privado en la IA. Para algunas grandes empresas tecnológicas, abordar las leyes estatales de IA debería ser una de las principales prioridades del gobierno de los Estados Unidos.

Estados Unidos debe adoptar marcos de políticas que “se adelanten a un mosaico caótico de reglas a nivel estatal sobre el desarrollo de la IA fronteriza”, según la presentación de Google.

Mientras tanto, Openai pidió libertad para innovar en el interés nacional de los Estados Unidos y neutralizar a los competidores como China que se benefician de “las compañías estadounidenses de IA que tienen que cumplir con las leyes estatales demasiado onerosas”. Un puñado de estados de EE. UU. Han aprobado una regulación integral de IA, incluidas Colorado, California y Utah.

Sin una ley federal de IA, los estados implementan requisitos de IA individuales que crean desafíos de cumplimiento para las empresas, dijo la analista de Forrester Alla Valente si Estados Unidos adopta una política federal de IA general, podría eliminar esa carga, dijo.

“Al dejar esto a los Estados Unidos, puede tener 50 conjuntos de regulaciones de IA que se ven muy diferentes”, dijo.

Sin embargo, una orden ejecutiva no puede evitar las regulaciones estatales de IA. Depende del Congreso aprobar una ley federal de IA, algo que tiene problemas para hacer.

Las presentaciones del Plan de Acción de AI incluyen Estado, Global Focus

La falta de un enfoque de gobernanza de AI unificado en los Estados Unidos es “ineficaz y duplicativo”, dijo Hodan Omaar, un gerente de políticas senior en el Centro de Tank Tank Tank para innovación de datos.

“Crea inconsistencias e incoherencia en un enfoque estadounidense”, dijo.

Más allá de centrarse en las leyes estatales, Valente dijo que la postura de Google indica que la compañía quiere que Estados Unidos considere el desarrollo global de las leyes de IA también, como la Ley de IA de la Unión Europea.

Cualquier estándar, política o marco que crea los EE. UU. Debe reflejar los intereses estadounidenses, pero no puede ignorar las políticas de IA de diferentes países, dijo Valente. Google dijo que, cuando se trabaja con países alineados, Estados Unidos debería “desarrollar protocolos y puntos de referencia en torno a los riesgos potenciales de los sistemas de IA fronterizos”.

“Ignorar lo que el resto del mundo está haciendo en torno a los marcos de IA, la gobernanza de IA, el riesgo de IA, crea una brecha aún mayor entre la innovación de los Estados Unidos y el resto del mundo hasta el punto de que entonces sigue siendo competitivo si otros países tienen requisitos que no pueden ser satisfechos con la innovación de la IA de EE. UU.”, Dijo Valente.

Operai también abordó los controles de exportación en sus comentarios, solicitando un cambio de estrategia centrado en promover la adopción global de los sistemas de IA de EE. UU. Al tiempo que utiliza más estratégicamente los controles de exportación para mantener el liderazgo de IA de EE. UU. La Compañía pidió actualizar la regla de difusión de IA que avanzó los controles de exportación de EE. UU., Una regla propuesta por la administración del ex presidente Joe Biden que se encontró con una reacción violenta de la industria.

Mientras tanto, en los comentarios del Centro para la Innovación de Data, el grupo de expertos pidió que el Plan de Acción de AI de EE. UU. Reorientara su estrategia de control de exportación. Si bien los controles de exportación están destinados a debilitar a los competidores, en particular el sector de inteligencia artificial de China, están “cada vez más en desventajas de las empresas estadounidenses”. El surgimiento de Deepseek apunta a la capacidad de China para innovar a pesar de los controles de exportación de los Estados Unidos en chips de IA avanzados.

Omaar describió en la presentación del grupo de expertos de que Estados Unidos debería establecer una Fundación Nacional de Datos (NDF) dedicada a la financiación y facilitar compartir conjuntos de datos de alta calidad para el desarrollo del modelo de IA. Ella dijo que Estados Unidos también debería preservar, pero Reengus, el Instituto de Seguridad AI del Instituto Nacional de Normas y Tecnología (NIST) para proporcionar estándares fundamentales para la gobernanza de la IA.

“El gobierno federal tiene un papel importante que desempeñar para garantizar que haya estándares”, dijo Omaar. “Asegurarse de que NIST pueda hacer el importante trabajo de IA que estaban haciendo es importante para garantizar una adopción de IA sin problemas”.

Cómo podría ser el plan de acción de AI final

La solicitud de información de la Oficina de Ciencia y Tecnología de la Casa Blanca sobre un plan de acción de IA pidió a las partes interesadas sus pensamientos sobre las acciones de política de IA. Sin proporcionar recomendaciones o cualquier marco potencial para que las partes interesadas comenten, Valente dijo que no está claro qué incluirá el plan de acción de IA.

“Cómo termina este plan, uno solo puede imaginar”, dijo.

Darrell West, miembro senior de la Institución Brookings, dijo que la solicitud de información de la Casa Blanca indica que la administración Trump se centrará en abandonar los requisitos onerosos y confiar en las empresas privadas para innovar con menos supervisión federal.

“Habrá menos limitaciones en las compañías tecnológicas”, dijo. “Serán libres de innovar en cualquier dirección que deseen”.

El gobierno federal puede equilibrar la seguridad y la innovación de la IA, que con suerte se reflejará en el Plan de Acción de AI, dijo Jason Corso, cofundador de AI Startup Voxel51 y profesor de informática en la Universidad de Michigan.

La población general ya es escéptica de la IA, y si ocurren desafíos generales de crecimiento del desarrollo, corre el riesgo de socavar aún más la confianza en la tecnología, dijo. Es por eso que los marcos de políticas deben crearse con la seguridad de IA en mente, agregó Corso.

Un marco federal que carece de consideraciones de seguridad de IA significa la responsabilidad de las decisiones de seguridad de IA cae a los CIO de la Compañía o los oficiales de IA en los principales, lo que Corso dijo que presenta un “gran riesgo”. El efecto podría ser menos adopción o ROI más lento, dijo.

“Esta IA contemporánea es tan incipiente que a pesar de los rápidos avances que estamos viendo, en realidad se entiende bastante sobre su previsibilidad, repetibilidad o incluso su robustez con ciertos tipos de preguntas o escenarios de razonamiento”, dijo. “Ciertamente necesitamos innovación, pero también necesitamos seguridad”.

Makenzie Holland es un escritor de noticias senior que cubre la gran regulación federal y de la gran tecnología. Antes de unirse a Informa TechTarget, ella era una reportera de asignación general para el Wilmington Starnews y un reportero de crimen y educación en el Wabash Plain Dealer.

Continue Reading

Trending