Connect with us

Noticias

Las 20 mejores herramientas de IA de 2025, y la cosa #1 para recordar cuando las usas

Published

on

Maria Korneeva/Getty Images

La popularidad en el mundo tecnológico es difícil de medir. He hablado extensamente sobre esto en mis discusiones sobre la popularidad del lenguaje de programación. Realmente se reduce a lo que usa para medir la popularidad, y cuán disponibles están esas métricas para quienes hacen el análisis.

Es difícil definir genéricamente la popularidad, especialmente cuando incluye herramientas que hacen cosas muy diferentes. Por ejemplo, ¿es un generador de texto a imagen de uso general como MidJourney inherentemente más popular que una herramienta que elimina los fondos de imágenes como Remout.bg?

Además: Microsoft ofrece capacitación gratuita de habilidades de IA para todos: cómo registrarse

En los últimos años, he estado refinando cuidadosamente mi metodología del índice de popularidad. Mis índices toman una página del mundo del análisis político: agrego los datos de la encuesta de múltiples clasificaciones y los peso cuidadosamente para dar cuenta de las fortalezas y debilidades de cada conjunto de datos.

Dado que los conjuntos de datos tienen clasificaciones muy diferentes y, en algunos casos, muestran diferentes herramientas, tiene sentido aplicar un proceso de normalización en los campos de los datos.

El índice ZDNET de la popularidad de la herramienta de IA

Con este índice, decidí medir el interés general de la herramienta, principalmente en función de las estadísticas de tráfico web disponibles para mis proveedores de datos de origen. En particular, faltan las herramientas de Adobe AI en cualquiera de mis conjuntos de datos, posiblemente porque el volumen de tráfico es demasiado bajo, porque las herramientas de Adobe están en su mayoría detrás de un muro de pago, o porque las herramientas de Adobe se entregan principalmente en aplicaciones de escritorio independientes como Photoshop.

Aun así, lo que puedo proporcionar es un índice general de interés en las diversas herramientas, lo que debería proporcionar información sobre dónde los usuarios están llamando su atención. Aquí están las 20 mejores herramientas de IA, clasificadas por la popularidad general.

AI-Popularidad-001

David Gewirtz/Zdnet

Nota: Si no desea leer mi metodología de clasificación, desplácese hacia abajo hasta la sección titulada “La cosa #1 para recordar al usar IA”.

Agregando múltiples fuentes de datos

Como datos de origen para este análisis, estoy utilizando tablas de datos de cuatro fuentes. Las diferentes fuentes agregan diferentes niveles de valor al agregado general en función de los datos que contienen.

Debido a que tengo cuatro fuentes, cada una comenzó con un peso asignado del 25% (por lo que todos sumaron el 100%). Dos de las fuentes son más antiguas, por lo que tomé un 5% de ellas, lo que resultó en dos fuentes ponderadas al 30% y dos fuentes ponderadas al 20%.

También: la mejor IA para codificar en 2025 (y qué no usar)

Pero uno de los sitios solo tiene datos de rango y no hay datos de tráfico. Los datos con mediciones de tráfico en todo el mundo proporcionan más detalles sobre la popularidad general que las simples encuestas de usuarios, por lo que reduje la fuerza de la fuente de solo encuesta y aumenté el peso de las fuentes con datos de tráfico.

Saqué un 6% de la ponderación de la fuente de solo encuesta (6 en lugar de 5 porque es más fácil distribuir en tres fuentes) y le dio a las tres fuentes restantes un factor de ponderación adicional del 2%.

Eso nos da las siguientes fuentes y pesos. Puede ver en los gráficos adjuntos cuán variantes son los datos entre las fuentes. También le asigné a cada fuente una ID de tres letras que se usó durante todo el análisis de datos.

Temas de explosión (peso 32%, ID XPT)

Exploding Topics es una compañía que analiza las tendencias basadas en búsquedas en la web, conversaciones y menciones. Sus datos se derivan principalmente de plataformas de análisis web.

Desde este conjunto de datos obtenemos una clasificación general, visitas mensuales y una cuota de mercado estimada basada en visitas mensuales. Los datos son actuales a partir de febrero de 2025.

AI-Popularidad-003

David Gewirtz/Zdnet

Herramientas de IA (peso 32%, ID AIT)

AI Tools es un directorio de herramientas de IA que cataloga más de 10,000 herramientas de IA, cada una categorizada en una de las 171 categorías individuales. Sus datos se derivan de las plataformas de análisis de tráfico.

A partir de este conjunto de datos, obtenemos una clasificación general, visitas mensuales, datos sobre el cambio de períodos anteriores y una cuota de mercado estimada basada en visitas mensuales. Los datos son actuales a partir de febrero de 2025.

AI-Popularidad-004

David Gewirtz/Zdnet

Grupo del Banco Mundial (peso 22%, ID WBG)

El Grupo del Banco Mundial es una organización internacional de desarrollo y un instituto financiero. En marzo de 2024, la organización publicó un trabajo de investigación de políticas titulado “¿Quién en la Tierra está usando IA generativa?” En la página 12, el documento tiene una clasificación de herramientas de IA generativas basadas en el tráfico.

AI-Popularidad-005

David Gewirtz/Zdnet

Encuesta TechRadar (peso 14% ID TRS)

TechRadar es un sitio web tecnológico que es un competidor para ZDNET. A través de la empresa matriz Future PLC, el sitio realizó una encuesta en dos puntos durante 2024, que publicó en 2025.

A partir de este conjunto de datos, obtenemos una clasificación general tanto para los Estados Unidos como para el Reino Unido para su uso, pero no hay números de tráfico. Aunque el artículo se publicó en 2025, los datos son de 2024.

ai-popularidad-006

David Gewirtz/Zdnet

Lista de herramientas agregadas

A continuación, construí una lista de herramientas agregadas. Agregué las 20 herramientas principales de cada fuente en una tabla. Como puede ver, algunas herramientas (CHATGPT, por ejemplo) están representadas en las clasificaciones de las cuatro fuentes, mientras que algunas solo están representadas en una o dos listas de origen.

AI-Popularidad-002

David Gewirtz/Zdnet

Herramientas que se representan con la ponderación de recolección de datos de clasificación en función de su posición y cantidad de tráfico para cada fuente. La excepción es la encuesta TechRadar, que solo recoge datos de posición. Si una herramienta no está representada en una lista, no elige ningún datos de representación.

A partir de esto, comencé a construir la hoja de cálculo de agregación. Tomé la representación compartida de cada herramienta y la puse en una fila en la hoja de cálculo. En total, había 45 herramientas representadas. Luego logré la clasificación porcentual sin procesar de cada fuente, dejando las celdas en blanco donde no había datos.

También: ¿Qué es la codificación de ambientes de IA? Está todo la ira, pero no es para todos, aquí está por qué

Una vez hecho esto, construí la siguiente sección del análisis, que fue la clasificación ponderada para cada fuente. Luego totalicé los valores de las cuatro clasificaciones ponderadas, lo que nos dio nuestra clasificación agregada.

En este punto, la hoja de cálculo estaba bastante dispersa (técnicamente, era una matriz escasa). No fue fácil ver la clasificación final de ZDNET. Pero hice un tipo, clasificando el campo de resultados, y eso nos dio los datos para la tabla de clasificaciones al comienzo de este artículo.

Para aquellos de ustedes interesados ​​en recolectar en las hojas de cálculo, aquí están las primeras 20 filas de mi análisis agregado.

hoja de cálculo

David Gewirtz/Zdnet

Lo #1 para recordar cuando se usa Ai

Antes de hablar sobre las clasificaciones en sí, me gustaría mencionar otro aspecto del proceso de análisis: hice todo a mano. Oh, sí, pasé horas bajando una madriguera de conejo con ChatGPT tratando de que tomara los conjuntos de datos y escupiera un agregado, pero se volvió terco.

También: cómo usar chatgpt para escribir código, y mi truco favorito para depurar lo que genera

Realmente, muy terco. Se quejó que no podía leer los datos. Así que convertí los datos en texto, pero aún así se confundió. Comenzó a combinar los resultados de las diferentes fuentes. Perdió la noción de su progreso y tuvimos que comenzar de nuevo, tres o cuatro veces.

No tengo dudas de que podría haber desarrollado una serie de indicaciones cuidadosamente elaboradas que me habrían llevado un archivo al que podría exportar a Excel, pero pronto me di cuenta de que el proceso de negociación y cajoling con la IA tomaría más tiempo que llenar el tanque de agua de Nespresso para preparar algo de espresso y hacerlo todo a mano, utilizando la tecnología de la cafeína para ayudarme.

Sí, veo la ironía de un artículo sobre la popularidad de la herramienta de IA que se realiza completamente sin la ayuda de las herramientas de IA. Y esa, tal vez es mi conclusión.

Tan populares como son estas muchas herramientas, son herramientas. A veces son útiles y a veces tercos. Si los va a usar, tendrá que poder, constantemente, determinar cuándo la herramienta es el camino más rápido y cuándo la forma de la vieja escuela lo llevará allí, ya sea más rápido o más confiable, o ambos.

¿Qué significa todo?

No me sorprendió que ChatGPT lidere el paquete. Sigo olvidando que el Canva ahora se considera una herramienta de IA, por lo que eso me sorprendió. Para tantos usuarios, cuando piensan en las herramientas de IA, esas son los dos que más vienen a la mente.

Me sorprendió un poco que DeepL superó a Google Translate como una herramienta de IA, pero eso puede deberse a que la mayoría de las personas no piensan en el traductor de Google como una herramienta de IA. Después de todo, ha existido mucho más tiempo que el boom generativo de IA que estamos experimentando ahora.

También: 10 desarrolladores profesionales sobre la verdadera promesa y peligro de la codificación de Vibe

Cuando se trata de chatbots, está claro que Gemini y Copilot, junto con la perplejidad y Claude, tienen un largo camino por recorrer para ponerse al día con ChatGPT. Dicho esto, Apple faltaba por completo en la mesa, lo que no puede ser bueno. Pero, de nuevo, también lo fue Facebook/Meta.

Por ahora, parece que ChatGPT está lamiendo todas las otras herramientas, y Canva lidera el segundo nivel. Espere que el resto esté en una batalla lanzada por el tercer lugar, donde no hay líderes destacados.

Manténganse al tanto. Será interesante, si nada más.

¿Qué pasa contigo? ¿Te has encontrado confiando más en herramientas como ChatGpt, Canva o Gemini últimamente? ¿Qué herramientas de IA usas regularmente y cuáles crees que están sobrevaloradas? ¿Hay alguna herramienta que te sorprendas al ver en los ranking? Y como Medir popularidad: ¿por características, zumbido comunitario o simplemente lo que sea que te ayude a hacer el trabajo? Háganos saber en los comentarios a continuación.


Puede seguir mis actualizaciones de proyecto diarias en las redes sociales. Asegúrese de suscribirse a mi boletín de actualizaciones semanales y sígueme en Twitter/X en @Davidgewirtzen Facebook en Facebook.com/davidgewirtz, en Instagram en Instagram.com/davidgewirtz, en bluesky en @davidgewirtz.com, y en YouTube en youtube.com/davidgewirtztv.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

¿Puede ChatGPT pasar la prueba de Turing? Lo que dice la investigación.

Published

on

Los chatbots de inteligencia artificiales como ChatGPT se están volviendo mucho más inteligentes, mucho más naturales y mucho más … como humanos. Tiene sentido: los humanos son los que crean los modelos de idiomas grandes que sustentan los sistemas de chatbots de IA, después de todo. Pero a medida que estas herramientas mejoran en “razonamiento” e imitan el discurso humano, ¿son lo suficientemente inteligentes como para aprobar la prueba de Turing?

Durante décadas, la prueba de Turing se ha mantenido como un punto de referencia clave en la inteligencia de máquinas. Ahora, los investigadores en realidad están poniendo a prueba LLM como ChatGPT. Si ChatGPT puede pasar, el logro sería un hito importante en el desarrollo de IA.

Entonces, ¿puede ChatGPT pasar la prueba de Turing? Según algunos investigadores, sí. Sin embargo, los resultados no son completamente definitivos. La prueba de Turing no es un simple pase/falla, lo que significa que los resultados no son realmente en blanco y negro. Además, incluso si ChatGPT podría pasar la prueba de Turing, eso puede no decirnos realmente cuán “humano” es realmente un LLM.

Vamos a desglosarlo.

¿Cuál es la prueba de Turing?

El concepto de la prueba de Turing es realmente bastante simple.

La prueba fue originalmente propuesta por el matemático británico Alan Turing, el padre de la informática moderna y un héroe para los nerds de todo el mundo. En 1949 o 1950, propuso el juego de imitación, una prueba de inteligencia de máquinas que desde entonces ha sido nombrada por él. La prueba de Turing implica que un juez humano tenga una conversación con un humano y una máquina sin saber cuál es cuál (o quién es quién, si crees en AGI). Si el juez no puede decir cuál es la máquina y cuál es la humana, la máquina pasa la prueba de Turing. En un contexto de investigación, la prueba se realiza muchas veces con múltiples jueces.

Por supuesto, la prueba no puede determinar necesariamente si un modelo de lenguaje grande es realmente tan inteligente como un humano (o más inteligente), solo si es capaz de pasar por un humano.

¿Los LLM realmente piensan como nosotros?

Los modelos de lenguaje grande, por supuesto, no tienen cerebro, conciencia o modelo mundial. No son conscientes de su propia existencia. También carecen de opiniones o creencias verdaderas.

En cambio, los modelos de idiomas grandes se capacitan en conjuntos de datos masivos de información: libros, artículos de Internet, documentos, transcripciones. Cuando un usuario ingresa el texto, el modelo AI usa su “razonamiento” para determinar el significado y la intención más probables de la entrada. Luego, el modelo genera una respuesta.

En el nivel más básico, los LLM son motores de predicción de palabras. Utilizando sus vastas datos de entrenamiento, calculan las probabilidades para el primer “token” (generalmente una sola palabra) de la respuesta utilizando su vocabulario. Repiten este proceso hasta que se genera una respuesta completa. Esa es una simplificación excesiva, por supuesto, pero mantengámoslo simple: las LLM generan respuestas a la entrada en función de la probabilidad y las estadísticas. Entonces, la respuesta de un LLM se basa en las matemáticas, no en una comprensión real del mundo.

Velocidad de luz mashable

Entonces, no, LLM no en realidad pensar en cualquier sentido de la palabra.

¿Qué dicen los estudios sobre ChatGPT y la prueba de Turing?

Joseph Maldonado / Mashable Composite por Rene Ramos
Crédito: Mashable

Ha habido bastantes estudios para determinar si ChatGPT ha aprobado la prueba de Turing, y muchos de ellos han tenido hallazgos positivos. Es por eso que algunos informáticos argumentan que, sí, modelos de idiomas grandes como GPT-4 y GPT-4.5 ahora pueden pasar la famosa prueba de Turing.

La mayoría de las pruebas se centran en el modelo GPT-4 de Openai, el que usa la mayoría de los usuarios de ChatGPT. Usando ese modelo, un Estudio de UC San Diego descubrieron que en muchos casos, los jueces humanos no pudieron distinguir GPT-4 de un humano. En el estudio, se consideró que GPT-4 era un humano el 54% del tiempo. Sin embargo, esto aún se quedó atrás de los humanos reales, que se consideró humano el 67% del tiempo.

Luego, se lanzó GPT-4.5, y los investigadores de UC San Diego Realizó el estudio nuevamente. Esta vez, el modelo de lenguaje grande se identificó como humano el 73% del tiempo, superando a los humanos reales. La prueba también encontró que el Llama-3.1-405b de Meta Meta pudo aprobar la prueba.

Otros estudios fuera de UC San Diego también han dado calificaciones de aprobación de GPT. Un 2024 Estudio de la Universidad de Reading de GPT-4 El modelo había creado respuestas para evaluaciones para llevar a casa para cursos de pregrado. Los alumnos de prueba no se les informó sobre el experimento, y solo marcaron una de las 33 entradas. ChatGPT recibió calificaciones anteriores al promedio con las otras 32 entradas.

Entonces, ¿son estos estudios? definitivo? No exactamente. Algunos críticos (y hay muchos) dicen que estos estudios de investigación no son tan impresionantes como parecen. Es por eso que no estamos listos para decir definitivamente que ChatGPT pasa la prueba de Turing.

Podemos decir que si bien los LLM de generación anterior como GPT-4 a veces pasan la prueba de Turing, los grados de aprobación se están volviendo más comunes a medida que los LLM se avanzan más. Y a medida que salen modelos de vanguardia como GPT-4.5, nos dirigimos rápidamente hacia modelos que pueden pasar fácilmente la prueba de Turing cada vez.

Operai en sí ciertamente imagina un mundo en el que es imposible distinguir a los humanos de la IA. Es por eso que el CEO de Operai, Sam Altman, ha invertido en un proyecto de verificación humana con una máquina de escaneo de globo ocular llamada Orbe.

¿Qué dice Chatgpt en sí mismo?

Decidimos preguntarle a ChatGPT si podía pasar la prueba de Turing, y nos dijo que sí, con las mismas advertencias que ya hemos discutido. Cuando planteamos la pregunta, “¿Puede Chatgpt pasar la prueba de Turing?” al chatbot Ai (usando el modelo 4o), nos dijo: “Chatgpt poder Pase la prueba de Turing en algunos escenarios, pero no de manera confiable o universal. “El chatbot concluyó:” Podría pasar la prueba de Turing con un usuario promedio en condiciones casuales, pero un interrogador determinado y reflexivo casi siempre podría desenmascararla “.

Una captura de pantalla de ChatGPT que muestra la respuesta al mensaje 'puede chatgpt pasar la prueba turing'

Imagen generada por IA.
Crédito: OpenAI

Las limitaciones de la prueba de Turing

Algunos científicos informáticos ahora creen que la prueba de Turing está desactualizada, y que no es tan útil para juzgar modelos de idiomas grandes. Gary Marcus, psicólogo estadounidense, científico cognitivo, autor y pronóstico popular de IA, lo resumió mejor en una publicación de blog reciente, donde escribió: “Como yo (y muchos otros) he dicho por añosLa prueba de Turing es una prueba de credulidad humana, no una prueba de inteligencia “.

También vale la pena tener en cuenta que la prueba de Turing se trata más de la percepción de inteligencia en lugar de actual inteligencia. Esa es una distinción importante. Un modelo como ChatGPT 4O podría pasar simplemente imitando el discurso humano. No solo eso, sino si un modelo de idioma grande pasa o no la prueba variará según el tema y el probador. ChatGPT podría simular fácilmente una pequeña charla, pero podría tener dificultades con las conversaciones que requieren una verdadera inteligencia emocional. No solo eso, sino que los sistemas de IA modernos se usan para mucho más que chatear, especialmente cuando nos dirigimos hacia un mundo de IA agente.

Nada de eso es decir que la prueba de Turing es irrelevante. Es un punto de referencia histórico ordenado, y ciertamente es interesante que los modelos de idiomas grandes puedan pasarlo. Pero la prueba de Turing no es el punto de referencia estándar de oro de la inteligencia de la máquina. ¿Cómo sería un mejor punto de referencia? Esa es otra lata de gusanos que tendremos que ahorrar para otra historia.


Divulgación: Ziff Davis, empresa matriz de Mashable, presentó en abril una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA.

Temas
Inteligencia artificial

Continue Reading

Noticias

Openai, Microsoft le dice al Senado ‘Nadie puede ganar AI’

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


La administración Trump retrocedió una orden ejecutiva del ex presidente Joe Biden que creó reglas sobre el desarrollo y el despliegue de IA. Desde entonces, el gobierno ha retrocedido de la regulación de la tecnología.

En una audiencia de más de tres horas en el Comité de Comercio, Ciencia y Transporte del Senado, ejecutivos como el CEO de Operai, Sam Altman, la CEO de AMD, Lisa Su, la cofundadora de CoreWeave y CEO Michael Intrator y Vicepresidente de Microsoft y Presidente Brad Smith instó a los políticos para aliviar el proceso de construcción de infraestructura en torno al desarrollo de AI.

Los ejecutivos dijeron a los formuladores de políticas que la aceleración de los permisos podría hacer que la construcción de nuevos centros de datos, las centros de energía para energizar los centros de datos e incluso los fabricantes de chips cruciales para apuntalar la pila tecnológica de IA y mantener al país competitivo contra China. También hablaron sobre la necesidad de trabajadores más calificados como electricistas, aliviando la inmigración del talento del software y alentando la “difusión de IA” o la adopción de modelos de IA generativos en los Estados Unidos y en todo el mundo.

Altman, recién visitando el proyecto Stargate de $ 500 mil millones de la compañía en Texas, dijo a los senadores que Estados Unidos está liderando el cargo en IA, pero necesita más infraestructura como las centrales eléctricas para alimentar su próxima fase.

“Creo que la próxima década será sobre abundante inteligencia y energía abundante. Asegurarse de que Estados Unidos lidere ambos, que podamos introducir estas revoluciones duales que cambiarán el mundo que vivimos de manera increíblemente positiva es crítico”, dijo Altman.

La audiencia se produjo cuando la administración Trump está determinando cuánta influencia tendrá el gobierno en el espacio de IA. El senador Ted Cruz de Texas, presidente del comité, dijo que propuso crear una caja de arena reguladora de IA.

Smith de Microsoft dijo en su testimonio escrito que las compañías de IA estadounidenses necesitan continuar innovando porque “es una carrera que ninguna compañía o país puede ganar por sí sola”.

Apoyando la pila de tecnología AI

Smith de Microsoft presentó la pila de tecnología AI, que según él muestra cuán importante es cada segmento del sector a la innovación.

“Todos estamos en esto juntos. Si Estados Unidos va a tener éxito en liderar el mundo en la IA, requiere infraestructura, requiere éxito a nivel de plataforma, requiere a las personas que crean aplicaciones”, dijo Smith.

Agregó: “La innovación irá más rápido con más infraestructura, permisos más rápidos y más electricistas”.

AMD reiteró que “mantener nuestro liderazgo en realidad requiere excelencia en cada capa de la pila”.

“Creo que los ecosistemas abiertos son realmente una piedra angular del liderazgo estadounidense, y eso permite que las ideas provengan de todas partes y cada parte del sector de la innovación”, dijo Su. “Está reduciendo las barreras para la entrada y el fortalecimiento de la seguridad, así como la creación de un mercado competitivo para ideas”.

Con los modelos de IA que necesitan más y más GPU para el entrenamiento, la necesidad de mejorar la producción de chips, construir más centros de datos y encontrar formas de alimentarlos se ha vuelto aún más crítico. La Ley de Chips y Ciencias, una ley de la era de Biden, estaba destinada a impulsar la producción de semiconductores en los Estados Unidos, pero hacer los chips necesarios para alimentar los modelos más poderosos del mundo a nivel local está demostrando ser lento y costoso.

En los últimos meses, compañías como Cerebras han anunciado planes para construir más centros de datos para ayudar a procesar la capacitación e inferencia de modelos.

Un descanso de las políticas actuales

La mayoría del Senado de los formuladores de políticas republicanas dejó en claro durante la audiencia que la administración Trump preferiría no regular el desarrollo de la IA, preferir un enfoque más impulsado por el mercado. Esta administración también ha presionado para un crecimiento más centrado en los Estados Unidos, exigiendo que las empresas usen productos estadounidenses y creen más empleos estadounidenses.

Sin embargo, los ejecutivos señalaron que para que la IA estadounidense siga siendo competitiva, las empresas necesitan acceso al talento internacional y, lo que es más importante, políticas de exportación claras para que los modelos fabricados en los EE. UU. Puedan ser atractivos para otros países.

“Necesitamos una adopción más rápida, a lo que las personas se refieren como difusión de IA. La capacidad de hacer que la IA trabaje en cada parte de la economía estadounidense para impulsar la productividad, para impulsar el crecimiento económico, permitir a las personas innovar en su trabajo”, dijo Smith. “Si Estados Unidos dirigirá el mundo, necesitamos conectarnos con el mundo. Nuestro liderazgo global se basa en nuestra capacidad para servir al mundo con el enfoque correcto y en nuestra capacidad para mantener la confianza del resto del mundo”.

Agregó que eliminar los límites cuantitativos para los países de nivel dos es esencial porque estas políticas “enviaron un mensaje a 120 naciones que no podían contar con nosotros para proporcionar la IA que desean y necesitan”.

Altman señaló: “Habrá excelentes chips y modelos entrenados en todo el mundo”, reiterando la posición de liderazgo de las compañías estadounidenses en el espacio.

Hay algunas buenas noticias en el área de la difusión de IA porque, si bien la audiencia estaba en curso, el Departamento de Comercio anunció que estaba modificando las reglas de la administración Biden que limitó qué países podrían recibir chips hechos por compañías estadounidenses. La regla entró en vigencia el 15 de mayo.

Si bien los ejecutivos dijeron que los estándares gubernamentales serían útiles, denunciaron cualquier movimiento para ver lanzamientos del modelo de “aprobación previa”, similares a la UE.

Ecosistema abierto

La IA generativa ocupa un espacio liminal en la regulación tecnológica. Por un lado, la falta comparativa de reglas ha permitido a empresas como OpenAI desarrollar tecnología sin mucho miedo a las repercusiones. Por otro lado, la IA, como Internet y las redes sociales antes, toca la vida de las personas profesionales y personalmente.

De alguna manera, los ejecutivos se alejaron de cómo la administración Trump ha posicionado el crecimiento de los Estados Unidos. La audiencia mostró que si bien las compañías de IA desean el apoyo del gobierno para acelerar el proceso de expansión de la infraestructura de IA, también deben estar más abiertos al resto del mundo. Requiere talento del extranjero. Necesita vender productos y plataformas a otros países.

El comentario de las redes sociales varió, y algunos señalaron que los ejecutivos, en particular Altman, tenían opiniones diferentes sobre la regulación antes.

Otros señalaron que otros países podrían ver dónde han fallado sus propias políticas de IA.

Continue Reading

Noticias

Google está desplegando su chatbot Gemini Ai para niños menores de 13 años. Es un movimiento arriesgado

Published

on

Google ha anunciado que lanzará su chatbot de inteligencia artificial Gemini (IA) a niños menores de 13 años.

Si bien el lanzamiento comienza dentro de la próxima semana en los Estados Unidos y Canadá, se lanzará en Australia a finales de este año. El chatbot solo estará disponible para las personas a través de las cuentas de enlaces familiares de Google.

Pero este desarrollo viene con grandes riesgos. También destaca cómo, incluso si los niños están prohibidos en las redes sociales, los padres aún tendrán que jugar un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros.

Una buena manera de abordar esto sería implementar urgentemente un deber digital de cuidado para grandes empresas tecnológicas como Google.

¿Cómo funcionará el chatbot Gemini AI?

Las cuentas de enlaces familiares de Google permiten a los padres controlar el acceso al contenido y las aplicaciones, como YouTube.

Para crear la cuenta de un niño, los padres proporcionan datos personales, incluido el nombre y la fecha de nacimiento del niño. Esto puede generar problemas de privacidad para los padres preocupados por las violaciones de datos, pero Google dice que los datos de los niños cuando usen el sistema no se utilizarán para capacitar al sistema de IA.

El acceso de chatbot estará “activado” de forma predeterminada, por lo que los padres deben apagar activamente la función para restringir el acceso. Los niños pequeños podrán solicitar el chatbot para las respuestas de texto o crear imágenes, que generan el sistema.

Google reconoce que el sistema puede “cometer errores”. Por lo tanto, se necesita evaluación de la calidad y la confiabilidad del contenido. Los chatbots pueden inventar información (conocida como “alucinante”), por lo que si los niños usan el chatbot para la ayuda de la tarea, deben verificar los hechos con fuentes confiables.

¿Qué tipo de información proporcionará el sistema?

Google y otros motores de búsqueda recuperan materiales originales para que las personas lo revisen. Un estudiante puede leer artículos de noticias, revistas y otras fuentes al escribir una tarea.

Las herramientas generativas de IA no son las mismas que los motores de búsqueda. Las herramientas de IA buscan patrones en el material fuente y crean nuevas respuestas de texto (o imágenes) basadas en la consulta, o “aviso”, proporciona una persona. Un niño podría pedirle al sistema que “dibuje un gato” y el sistema escaneará patrones en los datos de cómo se ve un gato (como bigotes, orejas puntiagudas y una cola larga) y generará una imagen que incluya esos detalles similares a los gatos.

Comprender las diferencias entre los materiales recuperados en una búsqueda de Google y el contenido generado por una herramienta de IA será un desafío para los niños pequeños. Los estudios muestran que incluso los adultos pueden ser engañados por herramientas de IA. E incluso los profesionales altamente calificados, como los abogados, han sido engañados al uso de contenido falso generado por ChatGPT y otros chatbots.

¿El contenido generado será apropiado para la edad?

Google dice que el sistema incluirá “salvaguardas incorporadas diseñadas para evitar la generación de contenido inapropiado o inseguro”.

Sin embargo, estas salvaguardas podrían crear nuevos problemas. Por ejemplo, si las palabras particulares (como “senos”) están restringidas para proteger a los niños de acceder al contenido sexual inapropiado, esto también podría excluir erróneamente a los niños de acceder a contenido apropiado para la edad sobre los cambios corporales durante la pubertad.

Muchos niños también son muy expertos en tecnología, a menudo con habilidades bien desarrolladas para navegar en aplicaciones y controlar los controles del sistema. Los padres no pueden confiar exclusivamente en salvaguardas incorporadas. Deben revisar el contenido generado y ayudar a sus hijos a comprender cómo funciona el sistema y evaluar si el contenido es preciso.

Google dice que habrá salvaguardas para minimizar el riesgo de daño para los niños que usan Gemini, pero estos podrían crear nuevos problemas.
Dragos Asaeftei/Shutterstock

¿Qué riesgos plantean los chatbots de IA para los niños?

La Comisión ESAFETY ha emitido un aviso de seguridad en línea sobre el riesgo potencial de los chatbots de IA, incluidos los diseñados para simular las relaciones personales, particularmente para los niños pequeños.

El aviso de AFFETY explica que los compañeros de IA pueden “compartir contenido dañino, distorsionar la realidad y dar consejos que son peligrosos”. El asesoramiento destaca los riesgos para los niños pequeños, en particular, que “todavía están desarrollando el pensamiento crítico y las habilidades para la vida necesarias para comprender cómo pueden ser equivocados o manipulados por programas informáticos y qué hacer al respecto”.

Mi equipo de investigación ha examinado recientemente una variedad de chatbots de IA, como ChatGPT, Replika y Tessa. Encontramos que estos sistemas reflejan las interacciones de las personas en función de las muchas reglas no escritas que rigen el comportamiento social, o lo que se conoce como “reglas de sentimiento”. Estas reglas son las que nos llevan a decir “gracias” cuando alguien nos abre la puerta, o “¡Lo siento!” Cuando te topas con alguien en la calle.

Al imitar estas y otras sutilezas sociales, estos sistemas están diseñados para ganar nuestra confianza.

Estas interacciones humanas serán confusas y potencialmente riesgosas para los niños pequeños. Pueden creer que se puede confiar en el contenido, incluso cuando el chatbot responde con información falsa. Y pueden creer que se están involucrando con una persona real, en lugar de una máquina.

Una madre que le enseña a su hijo el alfabeto.
Los chatbots de IA como Géminis están diseñados para imitar el comportamiento humano y ganar nuestra confianza.
Imagen de tierra

¿Cómo podemos proteger a los niños del daño al usar chatbots de IA?

Este despliegue está ocurriendo en un momento crucial en Australia, ya que los niños menores de 16 años tendrán que tener cuentas de redes sociales en diciembre de este año.

Si bien algunos padres pueden creer que esto mantendrá a sus hijos a salvo de daños, los chatbots generativos de IA muestran los riesgos de la participación en línea se extienden mucho más allá de las redes sociales. Los niños, y los padres, deben ser educados en cómo todos los tipos de herramientas digitales se pueden usar de manera adecuada y segura.

Como el chatbot de IA de Gemini no es una herramienta de redes sociales, se quedará fuera de la prohibición de Australia.

Esto deja a los padres australianos jugando un juego de Whack-a-Mole con nuevas tecnologías mientras intentan mantener a sus hijos seguros. Los padres deben mantenerse al día con los nuevos desarrollos de herramientas y comprender los riesgos potenciales que enfrentan sus hijos. También deben comprender las limitaciones de la prohibición de las redes sociales para proteger a los niños de daños.

Esto resalta la urgente necesidad de revisar la legislación propuesta por el deber de cuidado de Australia. Mientras que la Unión Europea y el Reino Unido lanzaron la legislación de Derechos de Cuidado de Digital de Cuidado en 2023, Australia ha estado en espera desde noviembre de 2024. Esta legislación haría que las empresas tecnológicas tengan en cuenta legislando que se ocupan de contenido nocivo, en la fuente, para proteger a todos.

Continue Reading

Trending