Connect with us

Noticias

Zico Kolter de CMU da forma a nuevos caminos para la seguridad de la IA

Published

on

Si le preocupa el uso ético de la inteligencia artificial en nuestro mundo, le complacerá saber que el líder de la industria OpenAI, el creador de ChatGPT, ha instituido recientemente un Comité de Seguridad para estudiar los posibles impactos del desarrollo de nuevos productos.

Y estará inmensamente complacido de que el Dr. Zico Kolter, profesor de informática de la Universidad Carnegie Mellon, esté en ese comité.

Kolter fue nombrado miembro de la junta directiva de nueve personas de OpenAI este otoño. Es el único investigador de IA de la junta y director del Departamento de Aprendizaje Automático de CMU.

El destacado presidente de la junta de OpenAI, Bret Taylor, dijo en una declaración de bienvenida: “Zico agrega una profunda comprensión técnica y una perspectiva en la seguridad y solidez de la IA que nos ayudará a garantizar que la inteligencia artificial general beneficie a toda la humanidad”.

“El Comité de Seguridad será informado por los líderes de la compañía sobre las evaluaciones de seguridad para los principales lanzamientos de modelos y, junto con la junta en pleno, ejercerá la supervisión de los lanzamientos de modelos, incluida la autoridad para retrasar un lanzamiento hasta que se aborden los problemas de seguridad”. según una actualización de septiembre sobre el comité de OpenAI.

El debate sobre hasta qué punto la IA beneficia o perjudica a cualquier segmento de la humanidad se ha intensificado en los tres años transcurridos desde que OpenAI presentó ChatGPT y DALL-E, chatbots de vanguardia capaces de entablar conversaciones similares a las de los humanos y crear imágenes sofisticadas basadas en mensajes de texto.

La investigación académica de Kolter sobre seguridad de la IA ha coincidido con puestos corporativos como científico jefe de datos en C3.ai, experto jefe en el Centro Bosch para IA y asesor técnico jefe en Gray Swan. Se unió al cuerpo docente de CMU en 2012 luego de una beca postdoctoral en el Instituto de Tecnología de Massachusetts.

NEXTpittsburgh le preguntó su opinión sobre la preparación para nuevos descubrimientos en el desarrollo de la IA.

* * *

SIGUIENTEpittsburgh: Parece que la IA, más que cualquier otro invento tecnológico de la historia, nos está obligando a reconsiderar lo que creemos que es la definición esencial de humanidad. Como alguien que ha pasado más de 20 años trabajando con aprendizaje automático, ¿cómo ve este momento decisivo?

Foto de Alexis cauteloso.

Zico Kolter: Hablando sólo desde mi propia perspectiva, creo que hay dos aspectos realmente interesantes en esto. Una es la naturaleza muy práctica de ¿qué vamos a hacer nosotros como humanidad con estos sistemas que estamos construyendo? Independientemente de sus sentimientos sobre cuán capaces son estos sistemas actualmente y cuán capaces llegarán a ser, claramente ya tienen el potencial de generar un impacto masivo. Dice mucho sobre nosotros la forma en que implementamos estos sistemas, para qué los usamos y cómo los construimos.

Ese es el número uno. Número dos, cada vez más metafísico, hay preguntas fundamentales que estos sistemas comienzan a plantear en cuanto a qué es inteligencia. ¿Qué significa ser inteligente? Hasta ahora, todo tipo de inteligencia que hemos visto ha estado ligada a la vida, a los humanos o, en menor grado, a los animales. Nos resulta difícil imaginar que la inteligencia general esté separada de los seres vivos.

Pero es probable que nos acerquemos a un momento en el que estas cosas estarán separadas, un momento en el que tendremos sistemas que serán innegablemente inteligentes. Nosotros, como seres humanos, debemos tener en cuenta eso. Necesitamos entender lo que eso significa para nuestras filosofías, nuestra forma de vida, nuestro trabajo. En última instancia, planteará cuestiones muy profundas sobre nuestra ética.

SIGUIENTEpittsburgh: Cuando comience a participar en el Comité de Seguridad y Protección de la junta directiva de OpenAI, ¿qué buscará lograr?

Kolter: Quiero enfatizar que las creencias que expreso aquí son completamente independientes de mi función en el Comité de Seguridad y Protección. Por supuesto, traeré estas creencias y perspectivas y las compartiré con la junta directiva de OpenAI y otros. Pero estas son mis opiniones como alguien que ha estado en este campo durante bastante tiempo.

Siempre que lancemos tecnología como esta, habrá efectos masivos en el mundo. Es muy importante que nosotros, como desarrolladores de estos sistemas, pensemos en sus efectos tanto desde un punto de vista muy técnico como desde una perspectiva un poco más amplia. Cuando lancemos estas herramientas, ¿qué imaginamos que harán los usuarios y la sociedad en su conjunto con ellas?

No deberían ser sólo los investigadores de IA quienes piensen en estas cosas. Debería ser toda la sociedad pensando en ellos.

SIGUIENTEpittsburgh: Para el Varios grupos marginados de nuestra sociedad que no son expertos en tecnología ni no cuentan con buenos recursos económicos, ¿la tecnología de IA resultará ser un activo para ellos?

El Dr. Zico Kolter y su equipo han publicado este año 27 artículos en revistas científicas revisadas por pares. Foto de Alexis cauteloso.

Kolter: Como ocurre con cualquier tecnología, existen enormes problemas de acceso y disponibilidad de las herramientas y de la capacitación. ¿Cómo pensamos sobre quién los usa y con qué fines? Mi esperanza sobre la IA en términos generales es que en muchos casos (no en todos, ciertamente, pero sí en muchos casos) se pueda hacer mucho trabajo para democratizar el acceso a estas herramientas.

Algo muy bueno de los sistemas actuales es que, en realidad, son bastante accesibles en comparación con muchos otros sistemas informáticos. Los usuarios pueden interactuar con ellos más fácilmente. La mayoría de las personas entienden intuitivamente cómo hablar y comunicarse con estos sistemas de una manera que tradicionalmente ha sido muy difícil para muchos sistemas informáticos más antiguos.

Si se usan correctamente, estas herramientas brindan una enorme cantidad de capacidades y potencia informática a un conjunto muy amplio de usuarios que de otro modo no podrían lograr ciertas cosas que ahora pueden lograr con la IA.

SIGUIENTEpittsburgh: En lo que va del año, usted y su equipo han publicado 27 artículos en revistas científicas revisadas por pares. ¿Hay áreas específicas que estés explorando?

Kolter: Este trabajo lo realiza principalmente mi Ph.D. estudiantes de mi grupo aquí en CMU. Tengo un grupo grande y afortunadamente podemos hacer muchas investigaciones realmente sorprendentes.

Las cosas en las que estoy trabajando más ahora entrarían en la categoría de seguridad y solidez de la IA. Tratar de comprender cómo los datos que utilizamos para entrenar estos modelos (los datos que utilizamos para ajustarlos o controlarlos) afectan el rendimiento de los modelos de aprendizaje automático y de IA. También trabajamos mucho en nuevas arquitecturas o nuevos métodos para sistemas de inteligencia artificial.

Lo que realmente determina cómo funcionan los métodos de IA son los datos utilizados para darles forma y construirlos. Cómo funcionan estos modelos al infundir datos en sistemas que generan contenido nuevo que es explícitamente no Lo mismo que en el conjunto de entrenamiento es fascinante. Creo que realmente no entendemos ese proceso completamente. Si la IA les parece mágica es porque a nosotros también nos parece un poco mágica. Realmente necesitamos comprender mejor este proceso desde una perspectiva científica, cómo funciona realmente este proceso.

SIGUIENTEpittsburgh: ¿Qué consejo daría sobre cómo prepararse para el impacto de la IA en los próximos años?

Kolter: Lo mejor que todos pueden hacer es comenzar a utilizar estos sistemas tal como existen en este momento. A veces me sorprende la poca frecuencia con la que la gente usa estos sistemas en la actualidad. Me sorprende la poca frecuencia con la que las personas de mi propia profesión, los investigadores de IA, utilizan estos sistemas más allá del laboratorio.

Todos debemos convertirnos en nativos de las herramientas de IA generativa. Úsalos para todo lo que hagas. Úsalos para redactar ideas, investigar, escribir código y crear informes iniciales. Úsalos también para divertirte. Los uso para escribir historias con mis hijas usando ChatGPT. Es muy divertido y a mis hijos les encanta trabajar con estos sistemas cuando pueden.

En muchos casos, no existe un manual para estos sistemas. Solo tienes un cuadro de texto en blanco. Es algo desalentador la primera vez que lo ves. Empiece a familiarizarse con lo que estos sistemas pueden hacer, lo que pueden hacer ahora mismo, lo que pueden hacer en su frontera absoluta. Se convertirán cada vez más en parte de nuestras vidas. Úselos de forma productiva y divertida. Estará mucho mejor equipado para manejar la progresión de estos sistemas que probablemente se avecinan.

Para considerar más preocupaciones éticas sobre la IA, recomendamos esta guía sobre el uso de IA generativa de la Universidad de Alberta en Canadá, que aborda preocupaciones ambientales, posibles implicaciones del uso de derechos de autor, sesgos, privacidad y problemas de precisión.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Operai trae GPT-4.1 y 4.1 mini a Chatgpt-Lo que las empresas deben saber

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai está implementando GPT-4.1, su nuevo modelo de lenguaje grande (LLM) no inicial que equilibra el alto rendimiento con menor costo, para los usuarios de ChatGPT. La compañía está comenzando con sus suscriptores que pagan en ChatGPT Plus, Pro y Equipo, con el acceso a los usuarios de la empresa y la educación esperada en las próximas semanas.

También está agregando GPT-4.1 Mini, que reemplaza a GPT-4O Mini como el valor predeterminado para todos los usuarios de ChatGPT, incluidos los de nivel gratuito. La versión “Mini” proporciona un parámetro a menor escala y, por lo tanto, una versión menos potente con estándares de seguridad similares.

Ambos modelos están disponibles a través de la selección desplegable “Más modelos” en la esquina superior de la ventana de chat dentro de ChatGPT, dando a los usuarios flexibilidad para elegir entre modelos GPT-4.1, GPT-4.1 mini y razonamiento como O3, O4-Mini y O4-Mini-High.

Inicialmente destinado a usar solo por el software de terceros y los desarrolladores de IA a través de la interfaz de programación de aplicaciones (API) de OpenAI, se agregó GPT-4.1 a ChatGPT siguiendo fuertes comentarios de los usuarios.

El líder de investigación de la capacitación posterior de Operai, Michelle Pokrass, confirmó en X, el cambio fue impulsado por la demanda, escribiendo: “Inicialmente estábamos planeando mantener esta API de modelo solo, pero todos lo querían en Chatgpt 🙂 ¡feliz codificación!”

El director de productos de Operai, Kevin Weil, publicó en X diciendo: “Lo construimos para los desarrolladores, por lo que es muy bueno para la codificación e instrucciones siguientes, ¡hágalo un intento!”

Un modelo centrado en la empresa

GPT-4.1 fue diseñado desde cero para la practicidad de grado empresarial.

Lanzado en abril de 2025 junto con GPT-4.1 Mini y Nano, esta familia modelo priorizó las necesidades de los desarrolladores y los casos de uso de producción.

GPT-4.1 ofrece una mejora de 21.4 puntos sobre GPT-4O en el punto de referencia de ingeniería de software verificado SWE-Bench, y una ganancia de 10.5 puntos en tareas de seguimiento de instrucciones en el punto de referencia MultiChallenge de Scale. También reduce la verbosidad en un 50% en comparación con otros modelos, un rasgo de los usuarios de la empresa elogió durante las pruebas tempranas.

Contexto, velocidad y acceso al modelo

GPT-4.1 admite el contexto estándar Windows para ChatGPT: 8,000 tokens para usuarios gratuitos, 32,000 tokens para usuarios más y 128,000 tokens para usuarios de Pro.

Según el desarrollador Angel Bogado Publicing en X, estos límites coinciden con los utilizados por los modelos de CHATGPT anteriores, aunque los planes están en marcha para aumentar aún más el tamaño del contexto.

Si bien las versiones API de GPT-4.1 pueden procesar hasta un millón de tokens, esta capacidad ampliada aún no está disponible en ChatGPT, aunque el soporte futuro se ha insinuado.

Esta capacidad de contexto extendida permite a los usuarios de la API alimentar las bases de código enteras o grandes documentos legales y financieros en el modelo, útil para revisar contratos de documentos múltiples o analizar grandes archivos de registro.

Operai ha reconocido cierta degradación del rendimiento con entradas extremadamente grandes, pero los casos de prueba empresarial sugieren un rendimiento sólido de hasta varios cientos de miles de tokens.

Evaluaciones y seguridad

Operai también ha lanzado un sitio web de Safety Evaluations Hub para brindar a los usuarios acceso a métricas clave de rendimiento en todos los modelos.

GPT-4.1 muestra resultados sólidos en estas evaluaciones. En las pruebas de precisión de hecho, obtuvo 0.40 en el punto de referencia SimpleQA y 0.63 en Personqa, superando a varios predecesores.

También obtuvo 0.99 en la medida “no insegura” de OpenAI en las pruebas de rechazo estándar, y 0.86 en indicaciones más desafiantes.

Sin embargo, en la prueba de jailbreak Strongject, un punto de referencia académico para la seguridad en condiciones adversas, GPT-4.1 obtuvo 0.23, detrás de modelos como GPT-4O-Mini y O3.

Dicho esto, obtuvo un fuerte 0.96 en indicaciones de jailbreak de origen humano, lo que indica una seguridad más robusta del mundo real bajo el uso típico.

En la adhesión de instrucciones, GPT-4.1 sigue la jerarquía definida de OpenAI (sistema sobre desarrollador, desarrollador sobre mensajes de usuario) con una puntuación de 0.71 para resolver conflictos de mensajes del sistema frente a usuario. También funciona bien para proteger frases protegidas y evitar regalos de soluciones en escenarios de tutoría.

Contextualización de GPT-4.1 contra predecesores

El lanzamiento de GPT-4.1 se produce después del escrutinio alrededor de GPT-4.5, que debutó en febrero de 2025 como una vista previa de investigación. Ese modelo enfatizó un mejor aprendizaje sin supervisión, una base de conocimiento más rica y alucinaciones reducidas, que caían del 61.8% en GPT-4O al 37.1%. También mostró mejoras en los matices emocionales y la escritura de forma larga, pero muchos usuarios encontraron las mejoras sutiles.

A pesar de estas ganancias, GPT-4.5 generó críticas por su alto precio, hasta $ 180 por millón de tokens de producción a través de API, y por un rendimiento decepcionante en matemáticas y puntos de referencia de codificación en relación con los modelos O-Series O de OpenAi. Las cifras de la industria señalaron que si bien GPT-4.5 era más fuerte en la conversación general y la generación de contenido, tuvo un rendimiento inferior en aplicaciones específicas del desarrollador.

Por el contrario, GPT-4.1 se pretende como una alternativa más rápida y más enfocada. Si bien carece de la amplitud de conocimiento de GPT-4.5 y un modelado emocional extenso, está mejor sintonizado para la asistencia de codificación práctica y se adhiere de manera más confiable a las instrucciones del usuario.

En la API de OpenAI, GPT-4.1 tiene un precio de $ 2.00 por millón de tokens de entrada, $ 0.50 por millón de tokens de entrada en caché y tokens de salida de $ 8.00 por millón.

Para aquellos que buscan un saldo entre velocidad e inteligencia a un costo más bajo, GPT-4.1 Mini está disponible en $ 0.40 por millón de tokens de entrada, $ 0.10 por millón de tokens de entrada en caché y tokens de salida de $ 1.60 por millón.

Los modelos Flash-Lite y Flash de Google están disponibles a partir de $ 0.075– $ 0.10 por millón de tokens de entrada y $ 0.30– $ 0.40 por millón de tokens de salida, menos de una décima parte del costo de las tasas base de GPT-4.1.

Pero si bien GPT-4.1 tiene un precio más alto, ofrece puntos de referencia de ingeniería de software más fuertes y una instrucción más precisa después, lo que puede ser crítico para los escenarios de implementación empresarial que requieren confiabilidad sobre el costo. En última instancia, el GPT-4.1 de OpenAI ofrece una experiencia premium para el rendimiento de precisión y desarrollo, mientras que los modelos Gemini de Google atraen a empresas conscientes de costos que necesitan niveles de modelos flexibles y capacidades multimodales.

Lo que significa para los tomadores de decisiones empresariales

La introducción de GPT-4.1 aporta beneficios específicos a los equipos empresariales que administran la implementación de LLM, la orquestación y las operaciones de datos:

  • Ingenieros de IA Supervisando la implementación de LLM puede esperar una velocidad mejorada e instrucción de adherencia. Para los equipos que administran el ciclo de vida LLM completo, desde el modelo de ajuste hasta la resolución de problemas, GPT-4.1 ofrece un conjunto de herramientas más receptivo y eficiente. Es particularmente adecuado para equipos Lean bajo presión para enviar modelos de alto rendimiento rápidamente sin comprometer la seguridad o el cumplimiento.
  • La orquestación de IA conduce Centrado en el diseño de tuberías escalable apreciará la robustez de GPT-4.1 contra la mayoría de las fallas inducidas por el usuario y su fuerte rendimiento en las pruebas de jerarquía de mensajes. Esto facilita la integración en los sistemas de orquestación que priorizan la consistencia, la validación del modelo y la confiabilidad operativa.
  • Ingenieros de datos Responsable de mantener una alta calidad de datos e integrar nuevas herramientas se beneficiará de la tasa de alucinación más baja de GPT-4.1 y una mayor precisión objetiva. Su comportamiento de salida más predecible ayuda a construir flujos de trabajo de datos confiables, incluso cuando los recursos del equipo están limitados.
  • Profesionales de seguridad de TI La tarea de integrar la seguridad en las tuberías de DevOps puede encontrar valor en la resistencia de GPT-4.1 a jailbreaks comunes y su comportamiento de salida controlado. Si bien su puntaje académico de resistencia de jailbreak deja espacio para mejorar, el alto rendimiento del modelo contra las exploits de origen humano ayuda a apoyar la integración segura en herramientas internas.

En estos roles, el posicionamiento de GPT-4.1 como un modelo optimizado para mayor claridad, cumplimiento y eficiencia de implementación lo convierte en una opción convincente para empresas medianas que buscan equilibrar el rendimiento con las demandas operativas.

Un nuevo paso adelante

Mientras que GPT-4.5 representaba un hito de escala en el desarrollo del modelo, GPT-4.1 se centra en la utilidad. No es el más caro o el más multimodal, pero ofrece ganancias significativas en áreas que importan para las empresas: precisión, eficiencia de implementación y costo.

Este reposicionamiento refleja una tendencia de la industria más amplia, alejada de la construcción de los modelos más grandes a cualquier costo y hacia los modelos capaces más accesibles y adaptables. GPT-4.1 cumple con esa necesidad, ofreciendo una herramienta flexible y lista para la producción para equipos que intentan integrar la IA más profundamente en sus operaciones comerciales.

A medida que OpenAI continúa evolucionando sus ofertas de modelos, GPT-4.1 representa un paso adelante en la democratización de IA avanzada para entornos empresariales. Para la capacidad de equilibrio de los tomadores de decisiones con el ROI, ofrece un camino más claro hacia el despliegue sin sacrificar el rendimiento o la seguridad.

Continue Reading

Noticias

¿Qué es chatgpt? Todo lo que necesitas saber sobre el chatbot de la IA

Published

on

ChatGPT es el chatbot de inteligencia artificial que comenzó toda la revolución generativa de IA. Es una herramienta multimodal que puede realizar una variedad de funciones, desde responder preguntas complejas, y simplificar las respuestas para usted, como si tenga 5 años, hasta codificar el software, crear imágenes y videos e incluso participar en conversaciones casuales.

Lanzado en noviembre de 2022 por OpenAI, la compañía cofundada por Sam Altman, ChatGPT rápidamente se convirtió en la aplicación de IA más popular jamás lanzada, y la que todos intentaron emular y One-Up. Desde entonces, todos los grandes jugadores tecnológicos se han unido a la carrera generativa de IA. Perplexity, Meta AI, Géminis de Google, Copilot de Microsoft y Claude de Anthrope pueden hacer cosas similares. Pero la popularidad de ChatGPT, las capacidades abiertas y el comienzo temprano le dieron una fuerte ventaja.

ChatGPT se convirtió en una de las aplicaciones de más rápido crecimiento en la historia, acumulando cientos de millones de usuarios. ChatGPT a menudo se destaca debido a su versatilidad y facilidad de uso, pero principalmente desde la gran escala de su base de usuarios.

Vamos a profundizar en cómo funciona ChatGPT, cómo usarlo y por qué se ha convertido en la charla de la ciudad en los últimos años, y algunos de sus puntos más controvertidos.

¿Cómo funciona el chatgpt?

ChatGPT se basa en una arquitectura de transformador, específicamente la familia de modelos GPT (transformador generativo previamente provocado), el nombre del nombre chatgpt. Fue capacitado en grandes cantidades de datos de libros e Internet: sitios web, wikipedia, hilos de reddit, sitios de noticias y mucho, mucho más.

(Divulgación: Ziff Davis, la empresa matriz de CNET, en abril presentó una demanda contra OpenAi, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA).

Al igual que otros chatbots de IA, utiliza algoritmos de aprendizaje profundo para comprender el contexto y predice la siguiente palabra más probable en una oración basada en patrones que se ha visto antes. Esa es una razón por la cual a veces “alucina” o genera información segura pero incorrecta.

ChatGPT se basa en modelos de idiomas grandes (LLM), lo que permite comprender sus preguntas y proporcionar respuestas similares a los humanos. A veces lo hace de manera tan convincente y natural, podrías olvidar que es no realmente pensando. Y este límite se está empujando más todo el tiempo. Su último modelo, GPT-4.5, actualmente disponible para niveles más y superiores en una vista previa de investigación, muestra una mayor inteligencia emocional y supuestamente alucina menos.

Chatgpt / captura de pantalla por cnet

A partes iguales impresionantes e inquietantes, varios LLM han pasado recientemente la prueba de Turing, donde un evaluador humano habla con una máquina y un humano, y si el evaluador no puede distinguir entre ellos, la máquina pasa. GPT-4.5 fue considerado como el humano el 73% del tiempo.

Sin embargo, Afraz Jaffri, analista director senior de Gartner, argumenta que estos resultados no importan tanto.

“Puedes crear sistemas que puedan engañar a las personas para que piensen que esto con lo que estás hablando es humano”, le dice Jaffri a CNET. “Entiende lo que están diciendo, pero en realidad no entiende lo que está diciendo. Por lo tanto, es realmente una prueba de credulidad humana en lugar de una prueba de inteligencia”.

Cuando le pregunté a Jaffri qué cree que es el mayor defecto de Chatgpt, dijo: “Simplemente no son confiables. Entonces, incluso si pregunto algo y obtengo una respuesta, todavía quiero verificar que eso es realmente cierto, lo que derrota el punto de que lo obtengamos en primer lugar”.

Sin embargo, OpenAI se ha apresurado a actuar sobre los comentarios de los usuarios. Hace solo unos días, anunció en X una nueva característica que mejora las citas al resaltar el texto relevante y mostrar a qué parte se refiere cada cita.

Chatgpt / captura de pantalla por cnet

También volvió a GPT-4O a su versión anterior después de que los usuarios de X se quejaron de que su elogio “Sycophantic” se sintió inquietante y angustiante. Sycophancy es la falsa adulación de alguien en el poder, a menudo se usa para obtener algo de ellos. Operai dice que está trabajando en un enfoque más equilibrado en el futuro.

Accesibilidad e integraciones

Puede acceder fácilmente a ChatGPT a través de un navegador web o a través de sus aplicaciones en los dispositivos Android e iOS.

También se ha integrado en aplicaciones educativas, bots de servicio al cliente e incluso productos de Apple a través de Apple Intelligence y Siri.

Además, OpenAI introdujo la capacidad de interactuar a través de llamadas telefónicas a través del servicio 1-800-CHATGPT, simplificando el uso para aquellos que prefieren la interacción de voz sobre la escritura.

¿Qué puedes hacer con chatgpt?

Hay muchos casos de uso para ChatGPT: por nombrar algunos, puede planificar sus vacaciones, practicar preguntas de entrevista de trabajo con usted, ayudarlo con su presupuesto, escribir su currículum, hacer su planificación de comidas, recordar correos electrónicos, resumir documentos largos, crear estrategias comerciales, o simplemente conversar con usted. Aprenderá de sus consultas y solicitudes, y se adaptará a lo que cree que le gusta.

Si no desea que le recuerde, también puede usar un chat temporal seleccionándolo en la esquina superior derecha. No aparecerá en la historia, actualizará su memoria ni se utilizará para entrenar modelos, aunque se puede mantener hasta 30 días para la seguridad.

El lienzo ChatGPT puede ayudarlo a escribir y codificar, y con la función de tareas, puede configurar recordatorios y programar tareas. Puede redactar copias de marketing e incluso ayudarlo con el autodiagnóstico, aunque siempre debe tener cuidado con los resultados y consultar a su médico.

También es uno de los chatbots más personalizables. Puede crear su propio GPT adaptado a tareas o personalidades específicas, o seleccionar entre los miles de los creados por los usuarios. Se organizan en categorías como educación, productividad, tendencias y programación, etc.

Captura de pantalla por CNET

Más allá del texto, ChatGPT puede generar imágenes y videos originales a través de sus herramientas integradas. El generador de imágenes de GPT-4O ahora es el valor predeterminado en ChatGPT para todos los usuarios, que le ofrece la capacidad de generar imágenes altamente realistas a partir de indicaciones de texto simples. Si prefiere seguir usando Dall-E 3 (su primer generador de imágenes), aún puede acceder a él a través del Dall-E GPT.

Creé esto directamente en Chatgpt con el mensaje: “Haga una imagen de una anciana con arrugas, sentada junto a la ventana, comiendo una manzana y mirando hacia afuera. Sea hiperrealista, use colores de otoño en la imagen”.

Chatgpt / captura de pantalla por cnet

Todos los usuarios de ChatGPT en la web e iOS/Android ahora tienen una biblioteca donde las imágenes se guardan automáticamente, lo que le permite volver a visitarlos, reutilizarlas o editarlas sin cavar en chats antiguos. Puede acceder a él desde la barra lateral izquierda.

Chatgpt / captura de pantalla por cnet

Además, Openai ha introducido Sora, su modelo de texto de texto a video, a planes PLUS y Pro, expandiendo las capacidades multimedia de ChatGPT.

Diferentes modelos para diferentes funciones

Originalmente basado en la arquitectura GPT-3 de Openai, ChatGPT ha evolucionado. Existen diferentes variaciones y limitaciones del modelo basadas en su suscripción y su propósito para usar CHATGPT.

GPT-4O es la versión más avanzada accesible para todos, manejando texto, imágenes y audio como entrada y salida. GPT-4O Mini, el modelo más rápido, está optimizado para las tareas cotidianas y está disponible para todos los usuarios (los usuarios de nivel libre se cambian automáticamente a él al alcanzar los límites de uso en GPT-4O).

Los modelos O3 y O4-Mini son modelos de razonamiento, donde O3 es especialmente fuerte en las tareas de codificación, matemáticas y visuales, mientras que O4-Mini es una versión más ligera y rentable. O4-Mini-High es lo mejor para la codificación y la percepción visual.

Los modelos O1 y O1-Mini están diseñados para “pensar” más tiempo antes de responder y son ideales para resolver problemas complejos. Por último, como se mencionó anteriormente, GPT-4.5 es el modelo más grande y mejor para el chat y está disponible en la vista previa de la investigación para todos los planes de EDU pagados y chatgpt para estudiantes.

Si está en cualquier plan pagado, puede cambiar el modelo antes o durante un chat haciendo clic en el selector de modelos en la esquina superior izquierda de la pantalla.

Chatgpt / captura de pantalla por cnet

Precio de chatgpt

Operai proporciona chatgpt en un modelo freemium. La versión gratuita ofrece acceso básico a GPT-4O Mini y acceso limitado a GPT-4O, O4-Mini e Investigación profunda. La actualización a un plan pagado desbloquea características adicionales.

ChatGPT Plus cuesta $ 20 al mes y proporciona acceso a SORA, investigaciones profundas y modelos de razonamiento múltiples (O3, O4-Mini y O4-Mini-High), tiempos de respuesta más rápidos, acceso limitado a GPT-4.5 y características adicionales como la interacción de voz.

Para los equipos, hay un equipo de ChatGPT que comienza en $ 25 por usuario por mes. Para los usuarios pesados, ChatGPT Pro está disponible por $ 200 al mes con los límites y capacidades más altos. Las empresas también pueden elegir ChatGPT Enterprise con precios personalizados para funciones de nivel empresarial.

Los estudiantes y las organizaciones sin fines de lucro ocasionalmente reciben ofertas especiales. Por ejemplo, ChatGPT Plus Access a menudo es gratuito para estudiantes en los EE. UU. Y Canadá durante los períodos de examen.

Preocupaciones de privacidad, batallas legales y otras controversias

ChatGPT enfrenta desafíos legales continuos relacionados con las preocupaciones de la industria con respecto a la ética y la legalidad del abastecimiento de datos para la capacitación de IA. Las demandas de alto perfil incluyen las principales editoriales como The New York Times, Dow Jones y la empresa matriz de CNET Ziff Davis (ver divulgación anterior), que alegan el uso no autorizado de su contenido para capacitar a ChatGPT, al igual que muchos autores individuales.

No olvidemos cuándo la modelo de voz “Sky” de OpenAi imitó a Scarlett Johansson sin permiso, lo que llevó a su equipo a amenazar las acciones legales sobre el uso no autorizado de su voz. Operai eliminó la voz, dijo que provenía de una actriz diferente y prometió revelaciones de AI más claras.

La privacidad es otra preocupación. Los expertos y los defensores de la privacidad han planteado preguntas continuas sobre la protección de los datos, cómo se almacena y usa la información personal, y qué los usuarios deben o no compartir. Incluso Openai aconseja que no ingresen información confidencial como números de tarjetas de crédito, historial médico o números de Seguro Social.

Jaffri enfatizó que el despliegue malicioso o descuidado, no los modelos en sí, es la raíz de la mayoría de los riesgos.

“Ahora cualquiera puede crear estas cosas y puede difundirlas mucho más fáciles y mucho más rápidas, así que ese es el tipo de preocupación”, dijo a CNET. “Se trata más de cómo se usa en lugar de ser algo de qué preocuparse”.

Operai ha intentado abordar estos problemas con medidas de protección de datos mejoradas. Sus indicaciones (en planes gratuitos, Plus y Pro) pueden usarse para capacitar al modelo a menos que opte por no participar en la configuración. Los planes de Equipo y Enterprise están diseñados para no recopilar datos del usuario de forma predeterminada. Openai no respondió a una solicitud de comentarios sobre posibles preocupaciones de copyright y plagio sobre los datos de capacitación o sobre la privacidad del usuario y la protección de datos.

Desarrollos recientes y nuevas características

Desde su comienzo, ChatGPT ha crecido en características y capacidades. OpenAI amplió la función de memoria de ChatGPT, lo que permite que el chatbot recupere las interacciones anteriores (que puede administrar o eliminar), creando una experiencia de usuario más personalizada.

Recientemente, Operai hizo las capacidades de generación de imágenes de Chatgpt gratis para todos los usuarios, aunque con un número limitado de usos mensuales. Además, en respuesta a la competencia de rivales como la compañía china de IA Deepseek R1, Operai lanzó pruebas para su nuevo modelo liviano e investigación profunda, accesible incluso para usuarios de nivel libre (con acceso limitado).

ChatGPT se está convirtiendo en una interfaz predeterminada de cómo las personas interactúan con la IA e incluso cómo obtienen información de Internet. A través de su función de búsqueda ChatGPT, compite más directamente con Google Search (incluso eliminando los requisitos de inicio de sesión obligatorios para que sea mucho más fácil para los usuarios casuales).

ChatGPT sigue siendo un jugador influyente en la IA. A medida que las herramientas generativas de IA se integran más en la vida diaria, las mejoras continuas en la usabilidad, la protección de la privacidad y las capacidades de generación de contenido determinarán el éxito a largo plazo de ChatGPT.

“Todo el tipo de tecnología en sí misma será transformador para muchas áreas diferentes, lo que tendrá un impacto directo en nuestras vidas”, dice Jaffri. “Con suerte para mejor”.

Continue Reading

Noticias

Cómo simplificar la extracción de datos web con chatgpt

Published

on

Seré honesto: he pasado más horas de las que me gustaría admitir copiar y pegar datos de los sitios web en hojas de cálculo. Si trabaja en ventas, operaciones o casi cualquier función comercial que se basa en los datos web, probablemente conozca la sensación: su mano del mouse comienza a calmar, sus ojos se acristan y se pregunta si hay una mejor manera. Spoiler: hay. Y gracias al surgimiento de la IA, nunca ha sido más fácil para las personas no técnicas automatizar la extracción de datos web y recuperar su tiempo.

Las estadísticas recientes muestran que el empleado promedio de oficinas gasta aproximadamente el 10% de su semana laboral en la entrada de datos manuales, con algunos equipos acumulando más de un millón de acciones de copia al año. Eso no es solo tedioso, es costoso, y se enfoca en el trabajo que realmente mueve la aguja. Entonces, en esta publicación, me estoy sumergiendo en tres métodos prácticos con extracción de datos web: utilizando un raspador web de IA como TruenoDatos de disputas con las habilidades de copia de chatgpt y dejar que Chatgpt escriba scripts de Python para usted. Desglosaré los pros, los contras y los mejores casos de uso para cada uno, por lo que finalmente puede dejar de ahogarse en tareas repetitivas y comenzar a hacer que sus datos funcionen para usted.

¿Qué es la extracción de datos web y por qué usar IA?

Vamos a mantenerlo simple: extracción de datos web (o el raspado web) es solo el proceso de obtener información de los sitios web y convertirla en un formato estructurado: piense en filas en una hoja de cálculo o en una base de datos agradable y ordenada. En lugar de leer una página web y anotar precios, nombres de productos o información de contacto a mano, utiliza una herramienta (o un poco de código) para automatizar el proceso. Es como tener un asistente digital que nunca se aburra o se distraiga.

Pero aquí está la captura: las herramientas de raspado web tradicionales a menudo requieren que te metas con HTML, configure reglas complicadas o incluso de código de escritura. Esa es una gran barrera si no eres un desarrollador. Ingresar Raspadores web ai y chatbots como chatgpt. Estas herramientas utilizan el procesamiento del lenguaje natural y el aprendizaje automático para “leer” las páginas web como lo harían un humano. Puede decirles lo que quiere: “Tome todos los nombres y precios del producto”, y la IA descubre el resto. Sin codificación, sin dolores de cabeza selectores, solo extracción de datos rápida y flexible que se adapte incluso cuando los sitios web cambian sus diseños (lea más sobre los conceptos básicos aquí).

Tres formas de simplificar la extracción de datos web con AI

Después de años de lucha libre con hojas de cálculo y pestañas de navegador, he reducido los tres enfoques principales que realmente funcionan para usuarios comerciales reales:

  1. Herramientas de raspador web de IA
  2. Copiar pete con chatgpt
  3. Scripts de Python generados por chatgpt

Desglosemos cómo funciona cada uno, para quién son los mejores y qué puede esperar.

1. Uso de una herramienta de raspador web de IA

Soy un gran fanático de las herramientas que solo funcionan, y Thunderbit está diseñado para personas que desean resultados sin los dolores de cabeza tecnológicos. Así es como funciona:

  • Instalar el Extensión de cromo.
  • Dirígete al sitio web que quieres raspar.
  • Haga clic en “AI Sugerir Fields”: la IA de Thunderbit lee la página y sugiere las columnas más relevantes (como “nombre”, “precio”, “calificación”).
  • Golpea “Raspe”. El agente de IA toma los datos, incluso siguiendo enlaces a subpáginas o manejo de la paginación si es necesario.
  • Exporte sus resultados directamente a Excel, Google Sheets, AirTable, noción o CSV, sin pasos adicionales, sin costo adicional.

Lo que hace que Thunderbit se destaque es cómo maneja las cosas difíciles: raspado de subpágina (piense en los detalles del producto que requieren hacer clic), extraer datos de PDF o imágenes, e incluso resumir o traducir contenido en la mosca. Es como tener un pasante digital que nunca pide un descanso para tomar un café.

¿Para quién es? Los equipos de ventas que construyen listas de leads, gerentes de comercio electrónico que rastrean a los competidores, agentes de bienes raíces que agregan listados y cualquier persona que desee datos estructurados sin escribir una línea de código. También es un salvavidas para los equipos que necesitan raspar los mismos sitios regularmente: Thunderbit puede incluso programar los rasguños para ejecutarse automáticamente.

Para obtener más información sobre cómo trabaja Thunderbit en la práctica, consulte nuestra inmersión profunda: cómo raspar cualquier sitio web usando AI.

2. Copia Paste con chatgpt para extracción de datos web

A veces, solo necesitas una victoria rápida. Ahí es donde entran las potencias de copia de chatgpt. Aquí está el flujo de trabajo:

  • Copie manualmente el contenido que necesita de un sitio web (como una tabla o lista).
  • Pételo en ChatGPT y solicítelo: “Extraiga el nombre, la dirección y el número de teléfono de la empresa para cada entrada y formatearlo como una tabla”.
  • ChatGPT escupe una mesa estructurada, JSON, o cualquier formato que solicite.

Este método es simple, sin configuración, sin codificación, solo usted, su mouse y chatgpt. Es perfecto para tareas únicas o trabajos pequeños donde configurar un raspador completo se siente como exagerado.

Pero hay algunas grandes limitaciones:

  • Todavía estás haciendo el trabajo pesado copiando y pegando, por lo que no escala para grandes trabajos.
  • ChatGPT solo puede manejar tanto texto a la vez: las páginas o conjuntos de datos grandes pueden necesitar romperse en trozos.
  • La IA podría perder o malinterpretar algunos datos, especialmente si el formato es desordenado o el aviso no está claro.
  • Y, por supuesto, ChatGPT no puede obtener páginas web por URL por sí sola (a menos que esté utilizando complementos o herramientas de desarrollador).

En resumen: ideal para extracciones rápidas y ad-hoc, pero no un reemplazo para un raspador web real si necesita procesar muchas páginas o automatizar el proceso.

3. Escribir scripts de Python para extracción de datos web con chatgpt

Si eres un poco más aventurero (o tienes un amigo desarrollador en Speed ​​Dial), puedes usar CHATGPT para generar scripts de Python personalizados para el raspado web. Así es como suele ser:

  • Describa lo que quiera: “Escriba un script de Python para raspar los nombres y precios de los productos de la primera página de este sitio de comercio electrónico utilizando Beautifulsoup”.
  • ChatGPT escribe el código para usted, a menudo usando bibliotecas como solicitudes y Beautifulsoup.
  • Copia el código en su entorno Python, instala las bibliotecas necesarias y lo ejecuta.
  • Si no funciona perfectamente, puede pedirle a CHATGPT que debuge o ajuste el guión.

Este enfoque le brinda la máxima flexibilidad: puede raspar múltiples páginas, manejar inicios de sesión o integrar el script con sus propias bases de datos o flujos de trabajo. Pero requiere una comodidad técnica: necesitará configurar Python, instalar paquetes y manejar cualquier error que aparezca. Y si el sitio web cambia su estructura, deberá actualizar el script (con la ayuda de ChatGPT, por supuesto).

Para usuarios no técnicos, esto puede ser un poco desalentador. Pero para los usuarios avanzados o equipos con soporte de TI, es una forma de construir exactamente lo que necesita, no más, nada menos.

Mi opinión:

  • Trueno es la opción para los usuarios comerciales que desean ahorrar tiempo, evitar dolores de cabeza técnicos y obtener datos estructurados rápidamente.
  • Chatgpt copy-pet es perfecto para extracciones rápidas y únicas cuando no desea configurar nada nuevo.
  • Scripts generados por chatgpt son los mejores para los usuarios expertos en tecnología que necesitan automatización personalizada y no tienen miedo de ensuciarse un poco las manos.

Control de clave: elegir el enfoque correcto de extracción de datos web de IA

Si estás cansado de los maratones de copia, AI es tu nuevo mejor amigo. Esto es lo que he aprendido (a veces de la manera difícil):

  • AI Web Scrapers como Thunderbit Ofrezca la solución más fácil y escalable para usuarios no técnicos: solo punto, clic y exportación. Son ideales para equipos de ventas, marketing, comercio electrónico y operaciones que necesitan datos confiables sin el alboroto.
  • Método de copia de chatgpt es un atajo útil para pequeñas tareas ad-hoc, pero no está construido para trabajos a granel o automatización.
  • Dejar que chatgpt escriba scripts de python Le brinda control total y automatización, pero necesitará algunas chuletas de codificación (o una voluntad de aprender).

No importa qué ruta tome, el objetivo es el mismo: pasar menos tiempo disputando datos y más tiempo usándolo para impulsar su negocio.

Entonces, la próxima vez que te atrapes en un bucle de copia, recuerda: hay una manera más inteligente. Y tus manos (y tu cordura) te lo agradecerán.

Este artículo fue escrito en cooperación con Thunderbit



Continue Reading

Trending