Noticias
Can Otter and ChatGPT produce a good-enough account of a podcast interview? – Media Nation
Published
5 meses agoon

This post will no doubt have limited appeal, but a few readers might find it interesting. I’ve been thinking about how to produce summaries and news stories based on the podcast that Ellen Clegg and I host, “What Works: The Future of Local News.” The best way would be to pay a student to write it up. But is it also a task that could be turned over to AI?
Purely as an experiment, I took our most recent podcast — an interview with Scott Brodbeck, founder and CEO of Local News Now, in the Virginia suburbs of Washington, D.C. — and turned it over to the robots.
I started by downloading the audio and feeding it into Otter, a web-based transcription service that uses AI to guess at what the speaker might actually be saying. Once I had a transcript, I took a part of it — our conversation with Brodbeck, eliminating the introduction and other features — and fed it into ChatGPT twice, once asking it to produce a 600-word summary and then again to produce a 600-word news story. Important caveat: I did very little to clean up the transcript and did not edit what ChatGPT spit out.
The results were pretty good. I’m guessing it would have been better if I had been using a paid version of ChatGPT, but that would require, you know, money. I’d say that what AI produced would be publishable if some human-powered editing were employed to fix it up. Anyway, here are the results.
The transcript
Q: Scott, so many of the projects that we have looked at are nonprofit, and that trend seems to be accelerating. In fact, we love nonprofit news, but we also worry that there are limits to how much community journalism can be supported by philanthropy. So your project is for profit. How have you made that work? Dan, do you think for profit? Digital only, local news can thrive in other parts of the country as well.
A: I’m agnostic in terms of the future of both business models. I think there are nonprofits doing absolutely fantastic work. I think there are for profits that are doing great work in serving their communities. It is largely a business model distinction, and the thing that the nonprofit lets you do is raise some of that those larger philanthropic dollars or go after large donors in a community block club Chicago is one of the local operations that I respect the most. They’re amazing. The way they do their fundraising and the editorial output and how they serve their readers, absolutely amazing, and that works for them. But if I were to take the same model and try to apply it in Arlington, I don’t necessarily think it would work. It’s a smaller community. The donors who might get excited about serving Chicago, as you know, a city might. There’s just going to be a lot fewer of them, if I’m just talking about Arlington County, here, outside of DC. So for us, the for profit works we’ve had been fortunate to get lots of advertising support from local businesses. We do have some memberships, but it’s less than 10% of our revenue, maybe even less than 5% even with a recent influx when we put out the call. It’s meaningful, but it’s far from the main source of support for. Business model, and that’s what works here each community. What I’ve learned over time, because I’ve looked at potentially expanding to other other areas in years past, for the record, we are pretty firmly ensconced here in the DC area for now, but when I’ve looked at that the difference in each community and just the dynamics, and are you going to get support from advertisers? Are you going to get support from donors or philanthropy. It’s different. This is going back to local. Doesn’t scale. It’s very hard to take what works in one area and just clone, stamp it and apply it somewhere else. That’s a long way of saying that. I think both of these types of models are going to going to coexist, and they’re going to do there’s probably advantages and disadvantages, but as long as you’re serving your readers and as long as you have a viable business or a viable organization in terms of your financials, I think that’s great. I think all should be supported all the above.
Q: When we had Howard Owens of the Batavian on the podcast, he told us that he thinks for profits can actually act more independently than nonprofits, because it’s less harmful to offend one advertiser out of many than to offend one major funder who might be crucial to the whole enterprise. Do you agree with his take?
A: You know, I do, and it’s, I think it’s more of a question of revenue diversification for us. No one advertiser has more than 1% of our revenue as a result. I that’s not something I have to care about. Is what a specific advertiser thinks of a specific, you know, type of coverage we’re doing. We just, we call our own shots and approach, you know, our news coverage the way we we want to do it, without regard of what anybody external thinks. That’s the way to go here. That’s the way you serve readers, is by being independent and being a authentic voice for the community, and not being beholden to what a, you know, specific large donor thinks. Now on the nonprofit side, you know, if they’re relatively, you know, well diversified in terms of no one philanthropy or no one large donor holds too much sway, then I very much think they could be independent. But you know, if there is a situation where a particular nonprofit has a dependency on a single source, you know, I do think that calls into question, to what degree is that affecting editorial judgment? You know, not necessarily a bad thing, but I do think that, you know, you can make ask some questions there about how that’s affecting things.
Q: Scott, I’m looking at your video feed, and that is one of the most impressive mics I’ve ever seen in my life. And it leads me to think that there must be some multimedia aspects to what you’re doing that I’m not aware of. So could you talk about that a little bit?
A: We’ve tried some podcasts here and there. Over the years, there have been two main attempts at making it work. And you know, I think what we’ve found is that for us, what we have done in the past, or newsmaker interviews. We’ve also done a just kind of news discussion amongst some of our journalists, and we found an audience, but it wasn’t a it wasn’t a large audience in relation to our overall readership on the site. You know one thing about local is, especially when you’re online, only is, you are limited. You are limited in what you can do and what your resources are, and you know how much time you can spend on things. And we just ended up, after the last attempt, sunsetted the podcast. Now I the feeds are live. We could bring it back, but in the end, I decided to that we should prioritize reporting, you know, and telling stories that are of relevance to the community. So I still like multimedia. We’re going to try we’re going to be trying some stuff. We’ve been trying some stuff on social media, multimedia wise, we are going to be trying some new things, hopefully in the months to come. I do think that experimentation is important. Try things, see what works, but also don’t be afraid to make the decision if it’s not working, to pull back on it and reprioritize.
Q: Now in looking at one of your sites, ARL, now I see a pretty eclectic mix of pose it’s laid out like an old school blog in reverse chronological order. When I was looking the other day, I saw a restaurant opening an update on towing regulations, a morning Notes feature that aggregates content from other sites, some sponsored content police news and a high school football game. So what makes a local news now? Story are you are you seeking to be the news source of record in the towns that you’re in, or are you a supplement to something else?
A: I think we are. I think we are the most comprehensive local news outlets for each of the communities we serve here in Northern Virginia, and that is certainly the goal within the bounds of the resource. As we have available to us at this point, we have a newsroom of nine in the office behind me. We have about four people who work three days a week, but everybody else is remote. So newsroom is taken as a more conceptual term here. But yeah, we so it’s essentially about three people per community, and we are able to do a lot of coverage because we are able to focus, you know, our energy on reporting, and we don’t have to lay out a paper. We have a lot of automations on the back end of our of our systems where, you know, for social media, the social media posts go out automatically. Nobody has to do that. The newsletter goes out automatically. And so our reporters and editors are able to focus on just reporting the news, breaking stories you know that are of relevance to people in our community, doing the kind of service journalism around everything from what restaurant is opening down the street to, you know, where can I go and buy Christmas trees this year? We try to do everything that anybody in the community might want to know about, or at least, you know, a critical mass of people in the community might want to know about. And this approach, where you kind of mix some of the hard news, the government reporting, the elections, with what some might see as softer news. You know, local business, restaurant openings, development is in there somewhere, policing, public safety. This approach, I see it more and more working in different communities. You know, rough draft Atlanta, community impact in Texas, a number of online those are all kind of digital. You have the paper and the website. I kind of consider them peers and like minded in terms of the approach of coverage to coverage. And you see it elsewhere, with online only outlets. You know, it’s not the only model out there, but for serving a community like ours, which our communities are essentially sub markets of the DC metro area, I think it works pretty well.
Q: Your towns are pretty large, and yet, even so, I have to say three people per community sounds like a luxury in this day.
A: And we achieved this level of staffing thanks to an acquisition. We just acquired the Gazette leader, which was the weekly newspaper serving Arlington County and Fairfax County. So I before, I referenced a newspaper that was only going to the the more well, to do parts of town, and that was the sun Gazette, which was later supplanted by the Gazette leader. We were able to acquire it and the core news team of a news editor and a sports editor, which has really enhanced our coverage since that acquisition. This has been a dream to get to this level. And I do think three people, while by newsrooms, of your standards, might not seem like a lot for a place that would otherwise be served by, you know, a weekly paper. I think we are able to have a lot of impact locally and do a lot of really great reporting and telling stories that would otherwise go untold.
Q: Well, you jumped the gun on the GazetteLeader. So let me ask you about that. Back in September, you acquired a print newspaper, converted it to digital only and said you would be expanding coverage. In fact, you quoted me when I was looking at your website, I did not see the GazetteLeader listed as one of your offerings.
A: What’s going on with that is the print paper has gotten more expensive to print and produce and to distribute, rather at the same time, there’s been softening of demand for print advertising, as I understand it now, it still works in many communities, but for whatever reason, it wasn’t working here. So as a result, this was not a we just acquired the assets, the digital assets, of the Z leader, and we’re able to hire over the team, which is fantastic for our coverage, but it does mean that, unfortunately, it’s no longer in print. Now, I’ve been in talks to potentially partner with someone to put out a print publication locally. I’ve been in some talks about that. It’s far from a done deal. So there might be a revival of print in some form or fashion somewhere in our coverage area down the road. We’ll have to see how that plays out. It’s not a business that I want to have to learn a lot about and get into. You know, I think the future is clearly online. And so my goal in all this has been to figure out a enduring model for online only local news. I think we’ve figured out a lot, but I don’t have all the answers, and we’re since the acquisition and some of the additional costs we took on, we’re right about at our monthly average revenue, in terms of our expenses, we need to continue to grow from a business standpoint, and that’s what I’m focused on in the months to come. None of this is easy. You know, print, online, it’s all hard.
Q: It’s definitely not easy. But my my question was, I didn’t see the GazetteLeader offered. As a digital offering, either is the coverage area that was served by the GazetteLeader still being covered by by your network?
A: So it covered there were separate additions at one point for Arlington and for Fairfax County, and it was mostly focused on specific parts of Fairfax County, as opposed to the entire county. Long story short, we we were already covering those, and so essentially, we just absorbed the staff and the reporting they were doing, which was, you know, somewhat different than ours. Scott McCaffrey, the editor, the news editor, who came over as part of the deal, he goes to, like every single government meeting there is in Arlington, Fairfax County, and now he’s doing more in Falls Church, which is a little, little tiny city in between. Before I had been content, you know, you made note of our morning notes, where we link out to other news outlets covering news of interest to Arlington and Fairfax County. We do that from from both sides, and I was content to link to his coverage for a long time, while he was doing it. And I do think it’s important to do, but I’m like, as long as Scott’s there, he’s gonna be he’s gonna be on this, like, we can link to his coverage and focus more on, you know, what we can do uniquely well. And now we have both. We have what we were doing before, and we have Scott’s coverage, which was, you know, there was some overlap, but was differentiated. We have his coverage on both our Arlington and Fairfax site. So essentially, all the journalism that they were producing that was unique to that paper, we are now doing online on our sites.
Q: I see on your website that you offer what could be called B to B services, client services to other news outlets. What can you tell us about that?
A: So this is the services that we’re providing to pop fill and to moco show. And one thing that’s pretty clear from from the 15 years of doing this is that every part of this is hard. You know, as the the news side is hard, the sales and advertising side is hard, the membership side is hard, but also the technology bit is not easy, particularly if you have a lot of readership. Now, if you, if you’re just, you know, doing 100,000 page views or less per month, then you can probably, you know, have a bog standard WordPress site on shared hosting and be fine. But our sites, you know, our Arlington site, pop, fill, moco show, they have one, one and a half to 2 million page views per month each. And at that level, you’re talking about enterprise grade hosting, you’re talking about all sorts of little problems that come up that someone needs to fix. And while local news doesn’t scale from an editorial standpoint and sometimes a business standpoint, the technology side certainly scales. And so being on the same WordPress installation, and we have our own custom built WordPress theme that is a little more chronological feed style, as opposed to the more you know, newspaper style home page that’s been in vogue for a while. Being on the same theme allows us to also find some efficiencies in terms of our sales, so that we can go to a regional advertiser and put the same ad unit or the same type of sponsored content with the same call to action button at the at the bottom on any of the sites that we serve.
600-word summary
In a recent conversation, Scott discussed the viability and challenges of for-profit digital-only local news outlets, sharing insights into his business model and how it has evolved. Scott’s project, a for-profit news outlet serving the Northern Virginia region, provides a stark contrast to the growing trend of nonprofit local journalism. While some worry about the sustainability of community journalism funded by philanthropy, Scott believes both nonprofit and for-profit models can coexist, each with their own strengths.
He emphasizes that a for-profit model works well for his community, particularly because it allows for advertising support from local businesses. Despite having some membership revenue, it is a minor part of the income stream. He notes that the dynamics of each community vary, making it difficult to replicate successful models from one area to another. A model that works in a large city like Chicago may not be feasible in a smaller town like Arlington, Virginia, where local donors and advertisers are fewer.
Scott also agrees with Howard Owens’ view that for-profit outlets can sometimes be more independent than nonprofits. He points out that, in his model, no single advertiser makes up a significant portion of the revenue, allowing the news team to operate without undue influence. While nonprofit outlets can be independent as long as they maintain revenue diversification, Scott highlights that dependence on a single donor can raise concerns about editorial independence.
Regarding multimedia efforts, Scott mentions that his team has experimented with podcasts and social media content. While they initially found success with these formats, they decided to focus on reporting, recognizing the limitations of resources in a local, digital-only newsroom. However, they continue to experiment with new formats as part of their strategy to engage their audience.
Scott’s outlet covers a broad range of local news, from restaurant openings to public safety, government meetings, and high school sports. He aims to be the most comprehensive local news source for his community, focusing on stories that are of relevance to the area. This includes a mix of hard news, community updates, and “softer” content like local events. Despite being a small team, Scott believes they have a significant impact because they focus on local reporting and use technology to streamline operations, such as automating social media posts and newsletters.
A significant recent development for Scott’s outlet was the acquisition of the Gazette Leader, a former print newspaper. After absorbing the paper’s staff and digital assets, Scott transitioned it to a fully digital operation. Although the print version was discontinued due to rising costs and declining demand for print ads, the acquired team has greatly enhanced their coverage of Arlington and Fairfax counties. Scott notes that while the Gazette Leader is no longer in print, the expanded team continues to produce local reporting for the digital platforms, filling gaps in coverage.
Scott also touched on his outlet’s B2B services, where they provide technological and advertising solutions to other local news organizations like Popville and MoCo Show. [Note: ChatGPT actually got these two names right, although “Popville” should be rendered as “PoPville.”] With each site receiving over a million page views per month, the technical demands are high, and Scott’s team has developed a custom-built WordPress theme to handle the scale. This collaboration not only enhances the editorial content across these sites but also enables efficiencies in sales and advertising, allowing regional advertisers to reach multiple local outlets through a unified platform.
Overall, Scott’s approach underscores the importance of adaptability and experimentation in the local news space. While the business of local journalism is undoubtedly challenging, he remains focused on creating a sustainable model that balances quality reporting with financial viability, leveraging both innovative technology and a strong connection to the community.
600-word news story
Local Digital News Model Finds Success Amid Nonprofit vs. For-Profit Debate
As community journalism faces financial challenges across the U.S., a growing debate between nonprofit and for-profit business models continues to shape the future of local news. Scott, the owner of a digital-only news outlet in Northern Virginia, offers a unique perspective, arguing that both models can coexist, each with distinct advantages. His outlet, which covers multiple communities in the D.C. metro area, blends news with a revenue-driven approach, demonstrating how for-profit digital journalism can thrive in an increasingly competitive landscape.
While nonprofit news organizations have gained traction in recent years, especially with the backing of philanthropic donations, Scott points out that there are limits to what these sources can achieve, especially in smaller communities. His outlet, which primarily relies on local advertising, has found success by catering to a specific audience and fostering deep local engagement. “The key is understanding your community,” he says. “What works in Arlington, Virginia, won’t necessarily work in other places. That’s why for-profit can thrive in certain areas.”
Scott stresses that the for-profit model allows for greater independence in editorial decisions, citing a perspective shared by Howard Owens of The Batavian. Owens argued that for-profit outlets, with a diversified advertiser base, can maintain editorial freedom by not being beholden to large donors, a concern for nonprofit outlets reliant on a few major philanthropists. “No single advertiser represents more than 1% of our revenue,” Scott notes, explaining that this independence allows them to cover stories without external pressure.
This freedom to cover diverse topics—from hard news like local elections and government meetings to more community-centric stories like restaurant openings and high school football games—is central to Scott’s approach. His site is a digital blend of old-school blogging and comprehensive reporting. With nine full-time staffers and a dedicated crew working remotely, his outlet has managed to serve multiple Northern Virginia communities, despite having a modest newsroom by traditional standards. “We try to be the most comprehensive local news outlet we can be within our resource constraints,” Scott explains.
The outlet has expanded recently through the acquisition of the Gazette Leader, a weekly print publication. After absorbing the editorial team, Scott converted the paper’s content into a digital format, enhancing coverage of Arlington and Fairfax Counties. While the Gazette Leader is no longer printed, Scott sees the acquisition as a step forward for local digital journalism. The transition has allowed his team to bolster coverage with more in-depth reporting from veteran journalists like Scott McCaffrey, who previously covered local government meetings. This has strengthened the outlet’s position as a key player in local news.
In addition to growing coverage, Scott’s outlet offers a unique business model by providing technology services to other news outlets. With a digital infrastructure capable of handling millions of page views, the site helps smaller outlets like Popville and MoCo Show streamline their technology and advertising operations. This collaboration allows for shared advertising and technical resources, creating efficiencies for smaller outlets that might otherwise struggle with the challenges of scaling their digital operations. “As the technology side of digital journalism scales, we can pass on some of those efficiencies to others,” Scott explains.
While Scott’s outlet has proven that digital-only, for-profit local news can succeed, he remains cautious about the future. He is keenly aware of the financial hurdles facing the industry, especially after the costs of acquiring the Gazette Leader. Despite this, he maintains that both nonprofit and for-profit outlets play essential roles in serving their communities. “The most important thing is to keep experimenting, adapting, and making sure you’re meeting the needs of your readers,” he says.
In an era where local news outlets are disappearing, Scott’s model offers a potential path forward, demonstrating that while the challenges are significant, innovation and community focus can still make local, for-profit digital journalism a viable and impactful business.
Like this:
Like Loading…
Discover more from Media Nation
Subscribe to get the latest posts sent to your email.
You may like

He usado varios altavoces inteligentes impulsados por Google Assistant durante bastante tiempo. El primer dispositivo que recogí fue el nido mini, que fue seguido por el cubo de nidos y el cubo de nido max. Tengo un altavoz en cada habitación, por lo que mi gente y yo podemos usar el Asistente de Google para pedir consultas, reproducir canciones, recibir actualizaciones de noticias y controlar nuestros dispositivos IoT en casa, independientemente de dónde estamos. Hasta el año pasado, estos dispositivos funcionaron bien. Ninguno de nosotros tuvo problemas con ellos, y se desempeñaron como se esperaba.
Sin embargo, hace unos meses, mi madre notó problemas estableciendo recordatorios en el centro de nidos. Las canciones que solía tocar regularmente en el altavoz eran más difíciles de tocar porque Google Assistant tuvo dificultades para reconocer la canción requerida. Entonces, llevé a cabo una resolución de problemas de rutina. Sin embargo, eso no solucionó el problema. Entonces, busqué soluciones en línea. No tardó mucho en darse cuenta de que los usuarios de todo el mundo tenían problemas con el Asistente de Google en sus dispositivos Nest. La línea de tiempo coincidió con el despliegue generalizado de Géminis. Puse dos y dos juntos y descubrí lo que estaba pasando.
Relacionado
5 Limitaciones de Gemini Live que odio ya que el Asistente de Google puede hacerlas bien
Un trabajo en progreso
El inicio de Géminis
Ai en todo

Fuente: Google
Regularmente uso el Asistente de Google, no solo en los altavoces inteligentes sino en mi teléfono. Junto con eso, soy uno de los primeros en adoptar nuevas tecnologías. Entonces, cuando Google lanzó Gemini, opté a la versión beta después de recibir el mensaje. Mis impresiones iniciales de Géminis fueron mixtas. Si bien podría darme más información que el Asistente de Google cuando se le preguntó una determinada consulta, no podría realizar tareas básicas, como tomar notas.
He estado haciendo esto todo el tiempo con el Asistente de Google, así que me perdí que no funcionó como se esperaba. Avance rápido hasta unos días, y me di cuenta de que Géminis no podía hacer la mitad de las cosas que Google Assistant podía. Asumí que esto se debió a la construcción beta, pero la tendencia continuó después del lanzamiento estable de Géminis. Esto me frustró, pero me alegré de que mi Galaxy Watch 4 todavía corriera el Asistente de Google.
La caída del Asistente de Google
¿Cuándo se convirtió en Siri?

Usé mi Galaxy Watch 4 para realizar tareas básicas como configurar recordatorios y tomar notas. Sin embargo, no era tan bueno como solía ser. Pensé que esto se debía al micrófono inferior en el reloj inteligente en comparación con mi teléfono. Cuando vi múltiples publicaciones en foros en línea sobre el Asistente de Google actuando, me di cuenta de que no era un problema con el micrófono, sino más bien con el asistente de salida de Google para priorizar a Gemini.
Los chatbots de IA y los asistentes generativos de IA se han apoderado del mundo. Cada compañía está ocupada construyendo modelos de IA, ya que es la nueva palabra de moda. Cuando Operai exhibió su chatgpt ai chatbot, Google fue criticado por rezagarse en la carrera de IA. Entonces, tuvo que cambiar rápidamente su enfoque en presentar Géminis (entonces Bard) al público. Después de que la compañía hizo eso, parece que asignó todos sus recursos a desarrollar Gemini mientras dejaba de lado el Asistente de Google.
Gracias a esto, el Asistente de Google recibió el tratamiento infantil ignorado. Con la mayoría de los servidores y la potencia de procesamiento dedicada a Gemini, Google Assistant comenzó a perder la trama. En los últimos meses, el asistente dejó de reconocer los nombres de contacto que solía antes, lleva mucho tiempo realizar una tarea básica, como tocar una canción, no detecta qué canción estoy tratando de tocar en los primeros intentos, a menudo reproduce la canción equivocada, me da el clima de una ciudad diferente en lugar de la que pedí, me piden un error para actualizar la aplicación de Google para que actúe una cierta función si la aplicación es la última versión en la última versión en la última versión en la última versión en el fracaso de las ocasiones.
Experimenté estos problemas con configuraciones de idiomas de Google Assistant in English (US) e English (India). Si bien el inglés (India) fue un poco mejor, no introdujo ningún cambio notable en el comportamiento del Asistente de Google.
Estoy frustrado de que no detecte la palabra de vigilia, especialmente cuando usa Google Assistant en Android Auto, el único lugar donde no quiero que falle, ya que las instrucciones de voz son la única forma segura de realizar ciertas acciones al conducir. La única inferencia que se puede extraer de estos problemas es que Google ha perdido interés en mantener el Asistente de Google. Esto se confirmó a través del anuncio de Google sobre el reemplazo del asistente con Gemini. Como resultado, la última versión de Android Auto trae a Gemini a su automóvil en lugar de asistente.

Relacionado
La era del Asistente de Google ha terminado
¿Géminis es el futuro de los asistentes de IA? Google piensa que sí
Dejé de usar dispositivos de nido
En su lugar me cambié a Alexa

Después de molestarme con las travesuras de Google, reemplacé los altavoces del nido en casa con la alineación de eco de Amazon. No hay tales problemas con Alexa, ya que el asistente entiende todo, desde la palabra de vigilia hasta los comandos. Alexa siempre ha estado ligeramente detrás del Asistente de Google en términos de características, por lo que, si bien eso sigue siendo, estoy feliz de que satisfaga todas las necesidades de mi asistente de voz sin problemas.
Sin embargo, Amazon anunció recientemente un cambio de imagen de IA para Alexa, Alexa Plus, que comenzará a llegar a las masas en breve. Esperaremos para ver cómo funciona. Con suerte, mejora las habilidades de Alexa en lugar de paralizarlas.
Tengo la esperanza de que Gemini mejore con el tiempo
Google no tiene otra opción que arreglarlo

Con el asistente del último participante en el cementerio de Google, supongo que Google lanzará actualizaciones para cambiar los altavoces y las pantallas de Google Assistant a Gemini. No estoy ansioso por eso, ya que Gemini no puede realizar tareas básicas con precisión, que es algo que hemos visto con AI. Aún así, espero que mejore el estado actual de estos dispositivos para que puedan ser útiles una vez más en lugar de ser pisapapeles caros.
Noticias
Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado
Published
8 horas agoon
11 mayo, 2025
Crédito: Markus Winkler de Pexels
Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.
Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.
Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.
Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.
¿Cómo funcionará el chatbot Gemini AI?
Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.
Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.
El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.
Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.
¿Qué tipo de información proporcionará el sistema?
Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.
Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “inmediato”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.
Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso profesionales altamente calificados, como abogados, han sido engañados para usar contenido falso generado por ChatGPT y otros chatbots.
¿El contenido generado será apropiado para la edad?
Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.
Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder a contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.
Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.
¿Qué riesgos plantean los chatbots de IA para los niños?
La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.
El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que sean peligrosos”. El aviso destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas de computadora y qué hacer al respecto”.
Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas basadas en las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.
Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.
Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.
¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?
Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.
Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben educarse en cómo todo tipo de herramientas digitales se pueden usar de manera adecuada y segura.
Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.
Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.
Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.
Proporcionado por la conversación
Este artículo se vuelve a publicar de la conversación bajo una licencia Creative Commons. Lea el artículo original.
Citación: Google está implementando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado (2025, 11 de mayo) recuperado el 11 de mayo de 2025 de https://techxplore.com/news/2025-05-google-gemini-ai-chatbot-kids.html
Este documento está sujeto a derechos de autor. Además de cualquier trato justo con el propósito de estudio o investigación privada, no se puede reproducir ninguna parte sin el permiso por escrito. El contenido se proporciona solo para fines de información.
Noticias
Una implementación de codificación de acelerar la anotación de aprendizaje activo con Adala y Google Gemini
Published
18 horas agoon
11 mayo, 2025
En este tutorial, aprenderemos cómo aprovechar el marco de Adala para construir una cartera de aprendizaje activo modular para la clasificación de síntomas médicos. Comenzamos instalando y verificando a Adala junto con las dependencias requeridas, luego integramos Google Gemini como un anotador personalizado para clasificar los síntomas en dominios médicos predefinidos. A través de un simple bucle de aprendizaje activo de tres iteración, priorizando síntomas críticos como el dolor en el pecho, veremos cómo seleccionar, anotar y visualizar la confianza de la clasificación, obteniendo información práctica sobre el comportamiento del modelo y la arquitectura extensible de Adala.
!pip install -q git+https://github.com/HumanSignal/Adala.git
!pip list | grep adala
Instalamos la última versión de Adala directamente desde su repositorio de GitHub. Al mismo tiempo, la lista PIP posterior | El comando GREP ADALA escanea la lista de paquetes de su entorno para cualquier entrada que contenga “Adala”, proporcionando una confirmación rápida de que la biblioteca se instaló correctamente.
import sys
import os
print("Python path:", sys.path)
print("Checking if adala is in installed packages...")
!find /usr/local -name "*adala*" -type d | grep -v "__pycache__"
!git clone https://github.com/HumanSignal/Adala.git
!ls -la Adala
Imprimimos sus rutas de búsqueda de módulos Python actuales y luego buscamos el directorio /usr /local para cualquier carpeta “adala” instalada (excluyendo __pycache__) para verificar que el paquete esté disponible. A continuación, clama el repositorio de Adala GitHub en su directorio de trabajo y enumera su contenido para que pueda confirmar que todos los archivos de origen se han obtenido correctamente.
import sys
sys.path.append('/content/Adala')
Al agregar la carpeta ADALA clonada al sys.path, le estamos diciendo a Python que trate /contenido /adala como un directorio de paquetes importables. Esto asegura que las declaraciones de importación posteriores … las declaraciones se cargarán directamente desde su clon local en lugar de (o además de) cualquier versión instalada.
!pip install -q google-generativeai pandas matplotlib
import google.generativeai as genai
import pandas as pd
import json
import re
import numpy as np
import matplotlib.pyplot as plt
from getpass import getpass
Instalamos el SDK de AI Generativo de Google junto con el análisis de datos y las bibliotecas de trazado (pandas y matplotlib), luego importar módulos clave, Genai para interactuar con Gemini, pandas para datos tabulares, JSON y RE para analizar, Numpy para operaciones numéricas, matlotlib.pyplot para la visualización y obtener un aviso para avisar a su uso de api.
try:
from Adala.adala.annotators.base import BaseAnnotator
from Adala.adala.strategies.random_strategy import RandomStrategy
from Adala.adala.utils.custom_types import TextSample, LabeledSample
print("Successfully imported Adala components")
except Exception as e:
print(f"Error importing: e")
print("Falling back to simplified implementation...")
Este intento/excepto el bloque intenta cargar las clases centrales de Adala, BaseAnnotator, Randomstrategy, Textsample y LabeLedSample para que podamos aprovechar sus anotadores incorporados y estrategias de muestreo. Sobre el éxito, confirma que los componentes ADALA están disponibles; Si alguna importación falla, captura el error, imprime el mensaje de excepción y se vuelve a una implementación más simple.
GEMINI_API_KEY = getpass("Enter your Gemini API Key: ")
genai.configure(api_key=GEMINI_API_KEY)
Le solicitamos de forma segura que ingrese su clave de la API Gemini sin hacerla eco de la cuaderno. Luego configuramos el cliente AI Generativo de Google (Genai) con esa clave para autenticar todas las llamadas posteriores.
CATEGORIES = ["Cardiovascular", "Respiratory", "Gastrointestinal", "Neurological"]
class GeminiAnnotator:
def __init__(self, model_name="models/gemini-2.0-flash-lite", categories=None):
self.model = genai.GenerativeModel(model_name=model_name,
generation_config="temperature": 0.1)
self.categories = categories
def annotate(self, samples):
results = []
for sample in samples:
prompt = f"""Classify this medical symptom into one of these categories:
', '.join(self.categories).
Return JSON format: "category": "selected_category",
"confidence": 0.XX, "explanation": "brief_reason"
SYMPTOM: sample.text"""
try:
response = self.model.generate_content(prompt).text
json_match = re.search(r'(\.*\)', response, re.DOTALL)
result = json.loads(json_match.group(1) if json_match else response)
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': result["category"],
'metadata':
"confidence": result["confidence"],
"explanation": result["explanation"]
)
except Exception as e:
labeled_sample = type('LabeledSample', (),
'text': sample.text,
'labels': "unknown",
'metadata': "error": str(e)
)
results.append(labeled_sample)
return results
Definimos una lista de categorías médicas e implementamos una clase GeminianNotator que envuelve el modelo generativo de Google Gemini para la clasificación de síntomas. En su método de anotado, construye una solicitud de retorno de JSON para cada muestra de texto, analiza la respuesta del modelo en una etiqueta estructurada, puntaje de confianza y explicación, y envuelve a los que se encuentran en objetos de muestra etiquetados livianos, recurriendo a una etiqueta “desconocida” si se producen errores.
sample_data = [
"Chest pain radiating to left arm during exercise",
"Persistent dry cough with occasional wheezing",
"Severe headache with sensitivity to light",
"Stomach cramps and nausea after eating",
"Numbness in fingers of right hand",
"Shortness of breath when climbing stairs"
]
text_samples = [type('TextSample', (), 'text': text) for text in sample_data]
annotator = GeminiAnnotator(categories=CATEGORIES)
labeled_samples = []
Definimos una lista de cadenas de síntomas crudos y envolvemos cada una en un objeto de muestra de texto ligero para pasarlas al anotador. Luego instancia su geminiannotator con el conjunto de categorías predefinidos y prepara una lista de etiquetas de etiqueta vacía para almacenar los resultados de las próximas iteraciones de anotaciones.
print("\nRunning Active Learning Loop:")
for i in range(3):
print(f"\n--- Iteration i+1 ---")
remaining = [s for s in text_samples if s not in [getattr(l, '_sample', l) for l in labeled_samples]]
if not remaining:
break
scores = np.zeros(len(remaining))
for j, sample in enumerate(remaining):
scores[j] = 0.1
if any(term in sample.text.lower() for term in ["chest", "heart", "pain"]):
scores[j] += 0.5
selected_idx = np.argmax(scores)
selected = [remaining[selected_idx]]
newly_labeled = annotator.annotate(selected)
for sample in newly_labeled:
sample._sample = selected[0]
labeled_samples.extend(newly_labeled)
latest = labeled_samples[-1]
print(f"Text: latest.text")
print(f"Category: latest.labels")
print(f"Confidence: latest.metadata.get('confidence', 0)")
print(f"Explanation: latest.metadata.get('explanation', '')[:100]...")
Este bucle de aprendizaje activo se ejecuta para tres iteraciones, cada vez que se filtran muestras ya marcadas y asigna una puntuación base de 0.1, impulsada por 0.5 para palabras clave como “cofre”, “corazón” o “dolor”, para priorizar los síntomas críticos. Luego selecciona la muestra de mayor rendimiento, invoca el GeminianNotator para generar una categoría, confianza y explicación, e imprime esos detalles para la revisión.
categories = [s.labels for s in labeled_samples]
confidence = [s.metadata.get("confidence", 0) for s in labeled_samples]
plt.figure(figsize=(10, 5))
plt.bar(range(len(categories)), confidence, color="skyblue")
plt.xticks(range(len(categories)), categories, rotation=45)
plt.title('Classification Confidence by Category')
plt.tight_layout()
plt.show()
Finalmente, extraemos las etiquetas de categoría predichas y sus puntajes de confianza y usamos matplotlib para trazar un gráfico de barras vertical, donde la altura de cada barra refleja la confianza del modelo en esa categoría. Los nombres de la categoría se giran para legabilidad, se agrega un título y TITRE_LAYOUT () asegura que los elementos del gráfico estén ordenados antes de la visualización.
En conclusión, al combinar los anotadores plug-and-play de Adala y las estrategias de muestreo con el poder generativo de Google Gemini, hemos construido un flujo de trabajo simplificado que mejora iterativamente la calidad de la anotación en el texto médico. Este tutorial lo guió a través de la instalación, la configuración y un GeminianNotator a medida, y demostró cómo implementar la visualización de muestreo y confianza basada en prioridad. Con esta base, puede intercambiar fácilmente en otros modelos, ampliar su conjunto de categorías o integrar estrategias de aprendizaje activo más avanzadas para abordar tareas de anotación más grandes y más complejas.
Verificar Notebook Colab aquí. Todo el crédito por esta investigación va a los investigadores de este proyecto. Además, siéntete libre de seguirnos Gorjeo Y no olvides unirte a nuestro 90k+ ml de subreddit.
Aquí hay una breve descripción de lo que estamos construyendo en MarkTechPost:
Asif Razzaq es el CEO de MarktechPost Media Inc .. Como empresario e ingeniero visionario, ASIF se compromete a aprovechar el potencial de la inteligencia artificial para el bien social. Su esfuerzo más reciente es el lanzamiento de una plataforma de medios de inteligencia artificial, MarktechPost, que se destaca por su cobertura profunda de noticias de aprendizaje automático y de aprendizaje profundo que es técnicamente sólido y fácilmente comprensible por una audiencia amplia. La plataforma cuenta con más de 2 millones de vistas mensuales, ilustrando su popularidad entre el público.
Related posts


















































































































































































































































































































Trending
-
Startups12 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos12 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias10 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo