Noticias
Cómo los reclutadores detectan el uso de ChatGPT en las solicitudes de empleo
Published
6 meses agoon

Con el auge de los asistentes de escritura con tecnología de inteligencia artificial, escribir su solicitud de empleo puede ser más rápido que nunca.
ChatGPT de OpenAI, por ejemplo, es un chatbot impulsado por aprendizaje automático que puede escribir currículums detallados y cartas de presentación en menos de cinco minutos con las indicaciones que usted le dé. Pero si está haciendo esto, sepa que los reclutadores lo saben.
“Fácilmente el 25% de las aplicaciones parecen estar generadas por IA”, afirmó Bonnie Dilber, gerente de reclutamiento de la empresa de automatización de aplicaciones Zapier.
Y estos ejemplos flagrantes no dejan una impresión ganadora a los reclutadores. En el peor de los casos, “me indica que es posible que la persona no sepa de qué está hablando o cómo combinar el contenido generado por IA con sus propias ideas”, dijo Dilber.
La mayor indicación de que utilizó IA en su solicitud de empleo
La mayor señal de alerta, dijeron los reclutadores, es cuando su solicitud se lee como una plantilla copiada y pegada, robótica y formulada.
Si está utilizando un asistente de redacción con tecnología de inteligencia artificial, piense en los cientos de otros candidatos a un puesto que están haciendo lo mismo. Para los reclutadores que examinan muchas solicitudes, las que se realizan a través de IA se vuelven obvias, porque tienen estructuras de oraciones similares y utilizan los mismos estudios de casos.
Dilber dio el ejemplo de preguntar “¿Por qué está interesado en este puesto?” en una solicitud de empleo y conseguir candidatos que utilicen la misma respuesta palabra por palabra de “La misión de la empresa de ‘insertar declaración de misión’ resuena conmigo y mi experiencia en ‘insertar su trabajo actual'”.
“La primera vez que lo vi, fue lindo, las siguientes veces, resulta obvio que todos conectaron esto a la misma herramienta”.
– Bonnie Dilber, gerente de reclutamiento de Zapier
“Después de ver exactamente la misma respuesta una y otra vez, queda claro que todos los candidatos están usando IA”, dijo.
Cuando la aplicación preguntó cómo utilizar el producto de Zapier, que automatiza tareas, Dilber dijo: “a un grupo de personas se les ocurrió el mismo caso de uso de una floristería. La primera vez que lo vi, fue lindo. Las siguientes veces, resulta obvio que todos conectaron esto a la misma herramienta”.
Para Gabrielle Woody, reclutadora universitaria de la empresa de software financiero Intuit, el signo revelador de una aplicación escrita en ChatGPT es también el “tono robótico” que es marcadamente diferente de cómo hablan realmente los profesionales que recién inician su carrera.
“Casi siempre veo palabras como ‘experto’, ‘experto en tecnología’ y ‘vanguardia’ repetidamente en los currículums para puestos tecnológicos”, dijo. “Reviso principalmente currículums de pasantes y de nivel inicial, y muchos de los candidatos que inician su carrera que revisé no usaban esos términos en sus solicitudes antes de ChatGPT”.
“Un buen reclutador puede detectar una solicitud escrita por IA a una milla de distancia”, dijo Laurie Chamberlin, directora de LHH Recruitment Solutions en Norteamérica. Para ella, el claro indicio son las palabras genéricas de moda.
“Podemos encontrar candidatos que mencionen habilidades como ‘excelente comunicador’ o ‘jugador de equipo’, pero no las respaldan con ejemplos de la vida real”, dijo. “La ausencia de especificidad, autenticidad y toque personal puede ser una señal de alerta”.
En algunos casos, es obvio por la falta de edición. Tejal Wagadia, reclutadora de una importante empresa de tecnología, dijo que verá solicitudes de empleo que todavía tienen la fuente, los paréntesis o la frase como “agregue números aquí” que ChatGPT proporcionará en sus respuestas resumidas.
“Literalmente copiarán y pegarán eso en su currículum sin ningún tipo de edición”, dijo Wagadia. Esto puede resultar contraproducente para los candidatos, porque indica que usted es descuidado. “Si te falta ese nivel de detalle, le demuestra al empleador que no estás orientado a los detalles. Sí, usas la tecnología, pero no bien”, añadió.
Cómo se sienten los reclutadores acerca del uso de la IA en general
Lo ideal sería utilizar herramientas de escritura de IA como punto de partida, dijeron los reclutadores. Woody dijo que ChatGPT puede ayudar a los candidatos a un puesto de trabajo a generar ideas sobre qué experiencias presentar en sus currículums: “Puedes pedirle a ChatGPT que desglose una descripción del trabajo o identifique las habilidades y experiencias más relevantes para el puesto al que estás postulando”.
En otras palabras, los asistentes de redacción de IA pueden ayudarle a escribir un primer borrador, pero usted necesita editar y escribir su borrador final con experiencias específicas y detalladas que solo usted sabe compartir.
Wagadia recomendó que la búsqueda de empleo sea “dirigida y no basada en plantillas”. Así que no presente solicitudes masivas con cientos de solicitudes de empleo generadas por IA.
Su apoyo nunca ha sido más crítico
Otros medios de comunicación se han refugiado detrás de muros de pago. En HuffPost creemos que el periodismo debería ser gratuito para todos.
¿Nos ayudaría a proporcionar información esencial a nuestros lectores durante este momento crítico? No podemos hacerlo sin ti.
¿No puedes permitirte el lujo de contribuir? Apoye al HuffPost creando una cuenta gratuita e inicie sesión mientras lee.
Has apoyado al HuffPost antes y seremos honestos: nos vendría bien tu ayuda nuevamente. Consideramos que nuestra misión de brindar noticias gratuitas y justas es de vital importancia en este momento crucial y no podemos hacerlo sin usted.
Ya sea que dones una o muchas más veces, apreciamos tu contribución para mantener nuestro periodismo gratuito para todos.
Has apoyado al HuffPost antes y seremos honestos: nos vendría bien tu ayuda nuevamente. Consideramos que nuestra misión de brindar noticias gratuitas y justas es de vital importancia en este momento crucial y no podemos hacerlo sin usted.
Ya sea que contribuyas solo una vez más o te registres nuevamente para contribuir regularmente, te agradecemos que desempeñes un papel para mantener nuestro periodismo gratuito para todos.
Soporte HuffPost
¿Ya has contribuido? Inicie sesión para ocultar estos mensajes.
“Es mejor tener cinco aplicaciones específicas en las que te esfuerces que 100 en las que la otra persona pueda decir claramente que no estás interesado”, dijo Wagadia.
Y no mientas. La reclutadora de tecnología y marketing digital, Kelli Hrivnak, advirtió a los solicitantes contra el uso de los logros sugeridos que las herramientas de IA generativa pueden crear en sus respuestas si no son ciertos: “Si ha engañado a la empresa, entonces esto pone en peligro su integridad como empleado”, dijo Hrivnak.
En última instancia, una solicitud de empleo sólida incluirá anécdotas personales y logros específicos que sean relevantes para el puesto al que se postula. Ese nivel de buena narración no se puede automatizar.
“Si la empresa simplemente buscara trabajo generado por IA, usaría una herramienta de IA”, dijo Dilber. “Están intentando contratar a un humano para las cosas únicas que sólo los humanos pueden ofrecer, así que asegúrese de que su aplicación lo muestre”.
You may like
Noticias
API de Meta Oleleshes Llama que se ejecuta 18 veces más rápido que OpenAI: Cerebras Partnership ofrece 2.600 tokens por segundo
Published
17 minutos agoon
29 abril, 2025
Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información
Meta anunció hoy una asociación con Cerebras Systems para alimentar su nueva API de LLAMA, ofreciendo a los desarrolladores acceso a velocidades de inferencia hasta 18 veces más rápido que las soluciones tradicionales basadas en GPU.
El anuncio, realizado en la Conferencia inaugural de desarrolladores de Llamacon de Meta en Menlo Park, posiciona a la compañía para competir directamente con Operai, Anthrope y Google en el mercado de servicios de inferencia de IA en rápido crecimiento, donde los desarrolladores compran tokens por miles de millones para impulsar sus aplicaciones.
“Meta ha seleccionado a Cerebras para colaborar para ofrecer la inferencia ultra rápida que necesitan para servir a los desarrolladores a través de su nueva API de LLAMA”, dijo Julie Shin Choi, directora de marketing de Cerebras, durante una sesión de prensa. “En Cerebras estamos muy, muy emocionados de anunciar nuestra primera asociación HyperScaler CSP para ofrecer una inferencia ultra rápida a todos los desarrolladores”.
La asociación marca la entrada formal de Meta en el negocio de la venta de AI Computation, transformando sus populares modelos de llama de código abierto en un servicio comercial. Si bien los modelos de LLAMA de Meta se han acumulado en mil millones de descargas, hasta ahora la compañía no había ofrecido una infraestructura en la nube de primera parte para que los desarrolladores creen aplicaciones con ellos.
“Esto es muy emocionante, incluso sin hablar sobre cerebras específicamente”, dijo James Wang, un ejecutivo senior de Cerebras. “Openai, Anthrope, Google: han construido un nuevo negocio de IA completamente nuevo desde cero, que es el negocio de inferencia de IA. Los desarrolladores que están construyendo aplicaciones de IA comprarán tokens por millones, a veces por miles de millones. Y estas son como las nuevas instrucciones de cómputo que las personas necesitan para construir aplicaciones AI”.
Breaking the Speed Barrier: Cómo modelos de Llama de Cerebras Supercharges
Lo que distingue a la oferta de Meta es el aumento de la velocidad dramática proporcionado por los chips de IA especializados de Cerebras. El sistema de cerebras ofrece más de 2.600 fichas por segundo para Llama 4 Scout, en comparación con aproximadamente 130 tokens por segundo para ChatGPT y alrededor de 25 tokens por segundo para Deepseek, según puntos de referencia del análisis artificial.
“Si solo se compara con API a API, Gemini y GPT, todos son grandes modelos, pero todos se ejecutan a velocidades de GPU, que son aproximadamente 100 tokens por segundo”, explicó Wang. “Y 100 tokens por segundo están bien para el chat, pero es muy lento para el razonamiento. Es muy lento para los agentes. Y la gente está luchando con eso hoy”.
Esta ventaja de velocidad permite categorías completamente nuevas de aplicaciones que antes no eran prácticas, incluidos los agentes en tiempo real, los sistemas de voz de baja latencia conversacional, la generación de código interactivo y el razonamiento instantáneo de múltiples pasos, todos los cuales requieren encadenamiento de múltiples llamadas de modelo de lenguaje grandes que ahora se pueden completar en segundos en lugar de minutos.
La API de LLAMA representa un cambio significativo en la estrategia de IA de Meta, en la transición de ser un proveedor de modelos a convertirse en una compañía de infraestructura de IA de servicio completo. Al ofrecer un servicio API, Meta está creando un flujo de ingresos a partir de sus inversiones de IA mientras mantiene su compromiso de abrir modelos.
“Meta ahora está en el negocio de vender tokens, y es excelente para el tipo de ecosistema de IA estadounidense”, señaló Wang durante la conferencia de prensa. “Traen mucho a la mesa”.
La API ofrecerá herramientas para el ajuste y la evaluación, comenzando con el modelo LLAMA 3.3 8B, permitiendo a los desarrolladores generar datos, entrenar y probar la calidad de sus modelos personalizados. Meta enfatiza que no utilizará datos de clientes para capacitar a sus propios modelos, y los modelos construidos con la API de LLAMA se pueden transferir a otros hosts, una clara diferenciación de los enfoques más cerrados de algunos competidores.
Las cerebras alimentarán el nuevo servicio de Meta a través de su red de centros de datos ubicados en toda América del Norte, incluidas las instalaciones en Dallas, Oklahoma, Minnesota, Montreal y California.
“Todos nuestros centros de datos que sirven a la inferencia están en América del Norte en este momento”, explicó Choi. “Serviremos Meta con toda la capacidad de las cerebras. La carga de trabajo se equilibrará en todos estos diferentes centros de datos”.
El arreglo comercial sigue lo que Choi describió como “el proveedor de cómputo clásico para un modelo hiperscalador”, similar a la forma en que NVIDIA proporciona hardware a los principales proveedores de la nube. “Están reservando bloques de nuestro cómputo para que puedan servir a su población de desarrolladores”, dijo.
Más allá de las cerebras, Meta también ha anunciado una asociación con Groq para proporcionar opciones de inferencia rápida, brindando a los desarrolladores múltiples alternativas de alto rendimiento más allá de la inferencia tradicional basada en GPU.
La entrada de Meta en el mercado de API de inferencia con métricas de rendimiento superiores podría potencialmente alterar el orden establecido dominado por Operai, Google y Anthrope. Al combinar la popularidad de sus modelos de código abierto con capacidades de inferencia dramáticamente más rápidas, Meta se está posicionando como un competidor formidable en el espacio comercial de IA.
“Meta está en una posición única con 3 mil millones de usuarios, centros de datos de hiper escala y un gran ecosistema de desarrolladores”, según los materiales de presentación de Cerebras. La integración de la tecnología de cerebras “ayuda a Meta Leapfrog OpenAi y Google en rendimiento en aproximadamente 20X”.
Para las cerebras, esta asociación representa un hito importante y la validación de su enfoque especializado de hardware de IA. “Hemos estado construyendo este motor a escala de obleas durante años, y siempre supimos que la primera tarifa de la tecnología, pero en última instancia tiene que terminar como parte de la nube de hiperescala de otra persona. Ese fue el objetivo final desde una perspectiva de estrategia comercial, y finalmente hemos alcanzado ese hito”, dijo Wang.
La API de LLAMA está actualmente disponible como una vista previa limitada, con Meta planifica un despliegue más amplio en las próximas semanas y meses. Los desarrolladores interesados en acceder a la inferencia Ultra-Fast Llama 4 pueden solicitar el acceso temprano seleccionando cerebras de las opciones del modelo dentro de la API de LLAMA.
“Si te imaginas a un desarrollador que no sabe nada sobre cerebras porque somos una empresa relativamente pequeña, solo pueden hacer clic en dos botones en el SDK estándar de SDK estándar de Meta, generar una tecla API, seleccionar la bandera de cerebras y luego, de repente, sus tokens se procesan en un motor gigante a escala de dafers”, explicó las cejas. “Ese tipo de hacernos estar en el back -end del ecosistema de desarrolladores de Meta todo el ecosistema es tremendo para nosotros”.
La elección de Meta de silicio especializada señala algo profundo: en la siguiente fase de la IA, no es solo lo que saben sus modelos, sino lo rápido que pueden pensarlo. En ese futuro, la velocidad no es solo una característica, es todo el punto.
Insights diarias sobre casos de uso comercial con VB diariamente
Si quieres impresionar a tu jefe, VB Daily te tiene cubierto. Le damos la cuenta interior de lo que las empresas están haciendo con la IA generativa, desde cambios regulatorios hasta implementaciones prácticas, por lo que puede compartir ideas para el ROI máximo.
Lea nuestra Política de privacidad
Gracias por suscribirse. Mira más boletines de VB aquí.
Ocurrió un error.


El ritmo rápido de la innovación generativa de IA coloca en los proveedores que empujan nuevos modelos de idiomas grandes (LLM) aparentemente sin pausa.
Entre estos destacados proveedores de LLM está Google. Su familia Gemini Model es el modelo de lenguaje sucesor de Pathways (Palm). Google Gemini debutó en diciembre de 2023 con el lanzamiento de 1.0, y Gemini 1.5 Pro siguió en febrero de 2024. Gemini 2.0, anunciado en diciembre de 2024, estuvo disponible en febrero de 2025. El 25 de marzo de 2025, Google anunció Gemini 2.5 Pro Experimental, continuó el ritmo rápido de la innovación.
El modelo Google Gemini 2.5 Pro ingresó al panorama de LLM a medida que su mercado cambia hacia modelos de razonamiento, como Deepseek R1 y Open AI’s O3, así como modelos de razonamiento híbridos, incluido el soneto 3.7 de Anthrope’s Claude.
¿Qué es Gemini 2.5 Pro?
Gemini 2.5 Pro es un LLM desarrollado por Google Deepmind. Cuando debutó en marzo de 2025, fue el modelo de IA más avanzado de Google, superando las capacidades y el rendimiento de las iteraciones anteriores de Gemini.
Al igual que con Gemini 2.0, Gemini 2.5 Pro es un LLM multimodal, lo que significa que no es simplemente para texto. Procesa y analiza texto, imágenes, audio y video. El modelo también tiene fuertes capacidades de codificación, superando los modelos de Géminis anteriores.
El modelo Gemini 2.5 Pro es el primero de la serie Gemini en ser construido especialmente como un “modelo de pensamiento” con la funcionalidad de razonamiento avanzado como capacidad central. En algunos aspectos, el modelo Gemini 2.5 Pro se basa en una versión de Gemini 2.0, Flash Thinking, que proporciona capacidades de razonamiento limitadas. Los modelos avanzados como Gemini 2.5 Pro usan un razonamiento de más tiempo a través de o “pensar” a través de los pasos requeridos para ejecutar un aviso, superando la mera institución de la cadena de pensamiento para permitir una producción más matizada, a menudo con mayor profundidad y precisión.
Google aplicó técnicas avanzadas, incluidos el aprendizaje de refuerzo y el mejor entrenamiento posterior, para aumentar el rendimiento de Gemini 2.5 Pro sobre los modelos anteriores. El modelo se lanzó con una ventana de contexto de un millón, con planes de expandirse a 2 millones de tokens.
¿Qué hay de nuevo en Gemini 2.5 Pro?
Las nuevas capacidades de Gemini 2.5 Pro y la funcionalidad mejorada elevan a la familia Google Gemini LLM.
Las mejoras clave incluyen lo siguiente:
- Razonamiento mejorado. La función principal de Gemini 2.5 Pro es su capacidad de razonamiento mejorada. Según Google, Gemini 2.5 Pro supera a Openai O3, el soneto antrópico Claude 3.7 y Deepseek R1 sobre los puntos de referencia de razonamiento y conocimiento, incluido el último examen de la humanidad.
- Capacidades de codificación avanzadas. Según Google, Gemini 2.5 Pro también supera las iteraciones anteriores en términos de capacidades de codificación. Similar a sus predecesores, este modelo genera y depura el código y crea aplicaciones visualmente atractivas. El modelo admite la generación y ejecución del código, lo que le permite probar y refinar sus soluciones. Gemini 2.5 Pro calificó 63.8% en SWE-Bench Verified, un estándar de la industria para evaluaciones de código de agente, con una configuración de agente personalizado que supera el soneto de Claude 3.7 de OpenAI GPT-4.5.
- Habilidades avanzadas de matemáticas y ciencias. Google también afirma mejorar las capacidades de matemáticas y ciencias. En el punto de referencia de matemáticas AIME 2025, Gemini 2.5 Pro obtuvo un 86.7%; En el referencia de GPQA Diamond Science, logró un 84%. Ambos puntajes superaron a sus rivales.
- Multimodalidad nativa. Sobre la base de fortalezas familiares, Gemini 2.5 Pro mantiene capacidades multimodales nativas, lo que permite la comprensión y el trabajo con textos, audio, imágenes, video y repositorios completos de código.
- Procesamiento en tiempo real. A pesar del aumento de las capacidades, el modelo mantiene una latencia razonable, lo que lo hace adecuado para aplicaciones en tiempo real y casos de uso interactivo.
¿Cómo mejora Gemini 2.5 Pro Google?
El modelo Gemini 2.5 Pro mejora los servicios de Google, y su posición entre los compañeros, de las siguientes maneras:
Liderazgo competitivo
El altamente competitivo LLM Market presenta a los principales competidores globales: Meta’s Llama Family, OpenAI’s GPT-4O y O3, Claude de Anthrope y Xai’s Grok, además de profundos de China, todos compiten por la participación de mercado. En su lanzamiento, Gemini 2.5 Pro inmediatamente se disparó a la cima de la clasificación de LLM Arena para la evaluación comparativa de IA, mejorando su posición como desarrollador líder de LLM para que las organizaciones lo consideren.
Mejores resultados en las aplicaciones de Google
En el lanzamiento, Gemini 2.5 Pro no se integró en el suite de productos de Google, incluidas las aplicaciones de búsqueda de búsqueda y Google Works. Sin embargo, su integración exitosa promete mejorar múltiples servicios. Para la búsqueda de Google, las capacidades de razonamiento mejoradas proporcionan respuestas más matizadas y precisas a consultas complejas. En Google Docs y otras aplicaciones del espacio de trabajo, la comprensión mejorada del contexto del modelo permite un análisis de documentos y generación de contenido más sofisticados.
Enfoque de desarrollador
Las habilidades de ejecución y generación de códigos avanzados del modelo también fortalecen la posición de Google en las herramientas y servicios del desarrollador, mejorando las llamadas de funciones y la automatización del flujo de trabajo en los servicios en la nube de Google.
Usos para Gemini 2.5 Pro
Gemini 2.5 Pro admite una variedad de tareas, que incluyen:
- Pregunta y respuesta. Gemini es un recurso para las interacciones de conocimiento de preguntas y respuestas fundamentales, basándose en los datos de capacitación de Google.
- Resumen de contenido multimodal. Como modelo multimodal, Gemini 2.5 Pro resume el contenido de texto, audio o video de forma larga.
- Respuesta de preguntas multimodales. El modelo combina información de texto, imágenes, audio y video para responder preguntas que abarcan múltiples modalidades.
- Generación de contenido de texto. Similar a sus predecesores, Gemini 2.5 Pro maneja la generación de texto.
- Resolución compleja de problemas. Con sus capacidades de razonamiento avanzado, Gemini 2.5 Pro administra tareas que requieren razonamiento lógico, como matemáticas, ciencias y análisis estructurado.
- Investigación profunda. La ventana de contexto extendida del modelo y las capacidades de razonamiento lo hacen ideal para analizar documentos largos, sintetizar información de múltiples fuentes y realizar investigaciones en profundidad.
- Tareas de codificación avanzadas. Gemini 2.5 Pro genera y depura el código que admite tareas de desarrollo de aplicaciones.
- Ai de agente. El razonamiento avanzado, las llamadas de funciones y el uso de la herramienta del modelo respaldan su valor como parte de un flujo de trabajo de AI agente.
¿Qué plataformas aceptan la integración Gemini 2.5 Pro?
Siguiendo los pasos de la familia Gemini, Gemini 2.5 está establecido para la integración en una serie de servicios de Google, que incluyen:
- Google AI Studio. En el lanzamiento, el nuevo modelo está disponible con Google AI Studio, una herramienta basada en la web que permite a los desarrolladores probar modelos directamente en el navegador.
- Aplicación Géminis. En el menú de selección del modelo desplegable, los suscriptores del servicio avanzado de Gemini pueden acceder al modelo a través de la aplicación Gemini en las plataformas de escritorio y móviles.
- Vértice ai. Google planea poner a disposición Gemini 2.5 Pro con su plataforma Vertex AI, lo que permite a las empresas utilizar el modelo para implementaciones a mayor escala.
- API GEMINI. Aunque no estaba disponible en el lanzamiento, todas las versiones anteriores de Gemini estaban disponibles utilizando una interfaz de programación de aplicaciones que permite a los desarrolladores integrar el modelo directamente en sus aplicaciones.
Sean Michael Kerner es un consultor de TI, entusiasta de la tecnología y tinkerer. Ha sacado el anillo de tokens, configurado NetWare y se sabe que compiló su propio kernel Linux. Consulta con organizaciones de la industria y los medios de comunicación sobre temas de tecnología.
Noticias
Ethical Web AI Launches Enterprise ChatGPT Security Solution on AWS Marketplace
Published
3 horas agoon
29 abril, 2025
Ethical Web AI (EWA) has achieved a major milestone by becoming a validated partner with Amazon Web Services (AWS) and integrating its AI Vault solution into AWS Marketplace. The partnership enables enterprises worldwide to access EWA’s Generative AI security solution through AWS’s cloud platform.
AI Vault offers real-time protection and governance for ChatGPT applications, featuring:
- Secure data handling with redaction of sensitive terms
- Full client control over AI usage
- Comprehensive audit logging and monitoring
- Seamless deployment within existing AWS infrastructure
The solution prevents data leakage and protects confidential information while allowing organizations to leverage ChatGPT’s productivity benefits. For SMEs, the AWS Marketplace integration provides quick onboarding, flexible billing, and scalable deployment options. The system operates within client infrastructure, ensuring all client-identifying data remains anonymized.
Ethical Web AI (EWA) ha raggiunto un importante traguardo diventando partner certificato di Amazon Web Services (AWS) e integrando la sua soluzione AI Vault nel Marketplace di AWS. Questa collaborazione consente alle aziende di tutto il mondo di accedere alla soluzione di sicurezza Generative AI di EWA tramite la piattaforma cloud di AWS.
AI Vault offre protezione e governance in tempo reale per le applicazioni ChatGPT, con caratteristiche quali:
- Gestione sicura dei dati con oscuramento dei termini sensibili
- Controllo completo da parte del cliente sull’utilizzo dell’AI
- Registrazione e monitoraggio dettagliato delle attività
- Implementazione integrata nell’infrastruttura AWS esistente
La soluzione previene la perdita di dati e tutela le informazioni riservate, permettendo alle organizzazioni di sfruttare i vantaggi di produttività di ChatGPT. Per le PMI, l’integrazione nel Marketplace AWS offre un onboarding rapido, fatturazione flessibile e opzioni di deployment scalabili. Il sistema funziona all’interno dell’infrastruttura del cliente, garantendo che tutti i dati identificativi rimangano anonimizzati.
Ethical Web AI (EWA) ha alcanzado un hito importante al convertirse en socio validado de Amazon Web Services (AWS) e integrar su solución AI Vault en el Marketplace de AWS. Esta asociación permite a empresas de todo el mundo acceder a la solución de seguridad Generative AI de EWA a través de la plataforma en la nube de AWS.
AI Vault ofrece protección y gobernanza en tiempo real para aplicaciones ChatGPT, con características como:
- Manejo seguro de datos con redacción de términos sensibles
- Control total del cliente sobre el uso de la IA
- Registro y monitoreo completo de auditorías
- Despliegue fluido dentro de la infraestructura AWS existente
La solución previene la filtración de datos y protege la información confidencial, permitiendo a las organizaciones aprovechar los beneficios de productividad de ChatGPT. Para las pymes, la integración en AWS Marketplace ofrece incorporación rápida, facturación flexible y opciones de despliegue escalables. El sistema opera dentro de la infraestructura del cliente, asegurando que todos los datos identificativos permanezcan anonimizados.
Ethical Web AI (EWA)가 Amazon Web Services (AWS)의 검증 파트너가 되어 AI Vault 솔루션을 AWS 마켓플레이스에 통합하는 중요한 성과를 이루었습니다. 이번 파트너십을 통해 전 세계 기업들은 AWS 클라우드 플랫폼을 통해 EWA의 생성형 AI 보안 솔루션에 접근할 수 있게 되었습니다.
AI Vault는 ChatGPT 애플리케이션에 대해 실시간 보호 및 거버넌스를 제공하며, 주요 기능은 다음과 같습니다:
- 민감한 용어의 수정 처리를 포함한 안전한 데이터 관리
- AI 사용에 대한 고객의 완전한 통제
- 포괄적인 감사 로그 및 모니터링
- 기존 AWS 인프라 내 원활한 배포
이 솔루션은 데이터 유출을 방지하고 기밀 정보를 보호하면서 조직이 ChatGPT의 생산성 이점을 활용할 수 있도록 합니다. 중소기업의 경우 AWS 마켓플레이스 통합을 통해 빠른 온보딩, 유연한 결제, 확장 가능한 배포 옵션을 제공합니다. 시스템은 고객 인프라 내에서 작동하여 모든 고객 식별 데이터가 익명화되도록 보장합니다.
Ethical Web AI (EWA) a franchi une étape majeure en devenant partenaire validé de Amazon Web Services (AWS) et en intégrant sa solution AI Vault dans l’AWS Marketplace. Ce partenariat permet aux entreprises du monde entier d’accéder à la solution de sécurité Generative AI d’EWA via la plateforme cloud d’AWS.
AI Vault offre une protection et une gouvernance en temps réel pour les applications ChatGPT, avec les fonctionnalités suivantes :
- Gestion sécurisée des données avec masquage des termes sensibles
- Contrôle total du client sur l’utilisation de l’IA
- Journalisation complète des audits et surveillance
- Déploiement fluide au sein de l’infrastructure AWS existante
La solution empêche les fuites de données et protège les informations confidentielles tout en permettant aux organisations de tirer parti des bénéfices productifs de ChatGPT. Pour les PME, l’intégration au AWS Marketplace offre une intégration rapide, une facturation flexible et des options de déploiement évolutives. Le système fonctionne au sein de l’infrastructure client, garantissant que toutes les données permettant d’identifier le client restent anonymisées.
Ethical Web AI (EWA) hat einen bedeutenden Meilenstein erreicht, indem es ein validierter Partner von Amazon Web Services (AWS) wurde und seine AI Vault-Lösung in den AWS Marketplace integrierte. Die Partnerschaft ermöglicht es Unternehmen weltweit, auf EWAs Generative AI-Sicherheitslösung über die Cloud-Plattform von AWS zuzugreifen.
AI Vault bietet Echtzeitschutz und Governance für ChatGPT-Anwendungen mit folgenden Merkmalen:
- Sichere Datenverarbeitung mit Schwärzung sensibler Begriffe
- Volle Kontrolle des Kunden über die KI-Nutzung
- Umfassende Audit-Protokollierung und Überwachung
- Nahtlose Bereitstellung innerhalb der bestehenden AWS-Infrastruktur
Die Lösung verhindert Datenlecks und schützt vertrauliche Informationen, während sie Organisationen ermöglicht, die Produktivitätsvorteile von ChatGPT zu nutzen. Für KMUs bietet die Integration in den AWS Marketplace eine schnelle Einführung, flexible Abrechnung und skalierbare Bereitstellungsoptionen. Das System läuft innerhalb der Kundeninfrastruktur und stellt sicher, dass alle kundenidentifizierenden Daten anonymisiert bleiben.
Positive
- Strategic partnership with AWS validates EWA’s AI security technology
- Full AWS Marketplace integration enables rapid scalability and easier enterprise customer acquisition
- Patented AI Vault solution provides unique competitive advantage in AI security
- Direct access to AWS’s global enterprise customer base through marketplace integration
- Revenue potential through seamless procurement and billing via AWS
- No additional infrastructure costs as solution runs on existing AWS cloud infrastructure
Negative
- Company trades on OTCQB market, indicating lower tier exchange listing
- No specific revenue projections or financial metrics provided
- Heavy dependence on AWS platform for deployment and distribution
NEW YORK, April 29, 2025 (GLOBE NEWSWIRE) — Ethical Web AI (d/b/a Bubblr Inc.) (OTCQB: BBLR), a world-leading innovator in Generative AI security solutions, today announced it had become a validated partner with the world’s leading cloud platform, Amazon Web Services (AWS), making its enterprise-grade Generative AI Security solution (AI Vault) available on AWS Marketplace.
This is a highly significant milestone for EWA and validation of its innovative approach to enterprise software development. This collaboration brings scalable, real-time protection and governance for generative AI applications/ChatGPT directly to enterprises worldwide. Through integration with AWS Marketplace, EWA can leverage all of its expertise in scalable cloud-based deployment while offering its customers a quick and seamless method of procurement.
With the rapid adoption of generative AI tools by both SMEs and Fortune 500 companies, organisations face a growing need to secure AI integrations, ensure data integrity and enforce compliance at scale. AI Vault offers a simple, flexible, and robust solution that allows the client to fully unlock ChatGPT’s potential to drive productivity gain whilst safeguarding against the threat of data leakage and reputational damage through the misuse of confidential company info.
EWA has developed a fully patented solution that puts the client in control of how it manages and controls the use of ChatGPT across the enterprise. Its unique solution allows the client to define key sensitive terms that can redacted from prompts augmented by proprietary contextual parameters/criteria. This ensures that all potentially damaging/proprietary data is prevented from augmenting the public LLMs/. The solution sits within the client infrastructure/intranet, with all client-identifying data fully anonymised. Sophisticated reporting allows the client to monitor precisely how the generative AI app is being used within the organisation. AI Vault has been optimised to run solely on AWS cloud infrastructure.
“Our Validated AWS Partner Status combined with the seamless Marketplace integration is a huge step forward for EWA and in democratising secure and responsible AI adoption at scale,” said Tom Symonds, CEO of Ethical Web. “We’re very excited to offer our customers the best in-breed AWS cloud solution and a seamless path to securing their generative AI initiatives without compromising innovation. Without robust oversight, these benefits can be overshadowed by risks to data integrity, brand reputation, and compliance.”
Key Benefits of AI Vault on AWS Marketplace:
- Secure ChatGPT: Real-time protection against sensitive data accidentally being shared, misuse by employees, and blocks either us as suppliers or Open AI from getting any visibility of any sensitive data or any personal data
- End-to-end governance: Audit logging, usage visibility, and policy enforcement across teams and applications. The customer has complete control of who has access to Gen AI with complete visibility of what it is being used for.
- Seamless AWS Integration: Using the client’s existing cloud infrastructure
- Scalable by Design: Suitable for startups and Fortune 500s alike, with simple deployment
Accelerating Time to Market for SMEs with AWS Marketplace
For SMEs looking to integrate AI into their operations quickly, AWS Marketplace provides a frictionless procurement and deployment experience:
- Fast Onboarding: Get started in minutes with preconfigured templates and integrations.
- Flexible Billing: Consolidated billing through AWS—no News Vendors or contracts needed.
- No Infrastructure Headaches: Deploy within your existing AWS environment without a complex setup.
- Enterprise-Grade from Day One: Access the same security and compliance features used by global enterprises—without enterprise-level overhead.
- Scalability as You Grow: Easily scale usage and security policies as your AI footprint expands.
About Ethical Web AI
Ethical Web AI is an AI-based cybersecurity technology company currently commercializing its enterprise AI Vault™ solution. Built upon its powerful IP and patent estate, it is the first in a planned suite of SaaS products to champion a private, safe, and high-value AI experience.
AI Vault initially targets the global enterprise marketplace with innovative solutions that protect businesses from advanced threats.
Media and investor contact – tom.symonds@ethicalweb.ai
Safe Harbor Statement
This press release contains forward-looking statements within the meaning of Section 27A of the Securities Act of 1933 and Section 21E of the Securities Exchange Act of 1934. These forward-looking statements are based on the current plans and expectations of management. They are subject to several uncertainties and risks that could significantly affect the Company’s current plans and expectations, future operations, and financial condition. The Company reserves the right to update or alter its forward-looking statements, whether due to new information, future events or otherwise.
FAQ
What are the key benefits of Ethical Web AI’s (BBLR) AI Vault partnership with AWS Marketplace?
The key benefits include real-time protection for ChatGPT usage, end-to-end governance with audit logging, seamless AWS integration using existing cloud infrastructure, and scalable design suitable for both startups and Fortune 500 companies.
How does Ethical Web AI (BBLR) protect companies using ChatGPT from data leaks?
BBLR’s AI Vault allows clients to define sensitive terms for redaction from prompts, prevents proprietary data from reaching public LLMs, and keeps all client-identifying data anonymized within their infrastructure.
What makes Ethical Web AI’s (BBLR) AWS Marketplace integration significant for SMEs?
SMEs benefit from fast onboarding with preconfigured templates, flexible billing through AWS, no infrastructure setup requirements, and enterprise-grade security features without complex overhead.
How does Ethical Web AI (BBLR) monitor and control enterprise ChatGPT usage?
BBLR’s AI Vault provides sophisticated reporting tools, allows clients to monitor ChatGPT usage across their organization, and enables complete control over access while maintaining visibility of all AI interactions.
What security features does Ethical Web AI (BBLR) offer through its AI Vault on AWS?
AI Vault provides real-time protection against sensitive data sharing, blocks visibility from OpenAI and suppliers, ensures data integrity, and maintains compliance through comprehensive audit logging and policy enforcement.
Related posts
































































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales12 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Recursos12 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups10 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Startups12 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos12 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Estudiar IA11 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios