Noticias
Probando la capacidad de Bard y ChatGPT para escribir ensayos sobre dilemas éticos: un estudio transversal
Published
5 meses agoon

En este estudio, comparamos las características lingüísticas psicométricas de los ensayos escritos por estudiantes sobre dilemas éticos personales con las de ensayos de IA equivalentes generados por indicaciones diseñadas con palabras clave de los ensayos originales. Descubrimos que el último grupo generalmente tenía más palabras relacionadas con el afecto, específicamente aquellas que exhibían emociones positivas. Por el contrario, los ensayos escritos por los estudiantes tenían más lenguaje relacionado con lo cognitivo y más palabras por oración. Los dos LLM utilizados para generar ensayos (Bard y ChatGPT) también diferían entre sí: el primero generaba textos más parecidos a los humanos y el segundo generaba ensayos con palabras más complejas frecuentemente relacionadas con el pensamiento analítico y que a menudo se presentaban con más autenticidad. Sin embargo, encontramos que un tercio de los ensayos entregados por los estudiantes ya estaban total o parcialmente escritos por un LLM. Esto fue confirmado por análisis adicionales, donde observamos diferencias menos o menos significativas entre dichos ensayos y los generados totalmente por IA que entre los ensayos “verdaderos” escritos por estudiantes y los de IA, lo que indica una mayor similitud. Además, como los ensayos coescritos por IA tenían menor autenticidad, pero puntuaciones de pensamiento analítico más altas y una mayor prevalencia de “palabras importantes”, es probable que, de hecho, fueran generados por IA, pero posteriormente editados hasta cierto punto. Además, confirmamos que los ensayos escritos por IA utilizaron más lenguaje relacionado con el afecto, la autenticidad y el pensamiento analítico en comparación con los ensayos escritos íntegramente por estudiantes después de eliminar del análisis los ensayos escritos conjuntamente por IA.
Hasta donde sabemos, nuestro estudio es el primero en comparar cuantitativamente las características psicométricas de ensayos generados por humanos y por IA sobre las experiencias personales de estudiantes de medicina con un dilema ético de la vida real que enfrentaron dentro de un contexto educativo o profesional. Otros estudios que compararon textos escritos por humanos y generados por LLM se centraron en textos argumentativos o reflexivos sobre un conjunto diverso de temas.15,21 o la capacidad de los LLM para escribir en ciertos estilos de personalidad, independientemente de un tema específico22.
Por ejemplo, Jiang et al.22 demostró que ChatGPT puede emular con éxito ciertos rasgos de personalidad dentro del modelo de personalidad de los Cinco Grandes, lo que puede explicar parcialmente por qué los LLM parecían ser muy competentes al escribir sobre temas emocionales y matizados, como en nuestro estudio. De lo contrario, nuestro hallazgo de que los ensayos escritos por IA tenían un lenguaje más analítico no es sorprendente, como Herbold et al.15 Anteriormente descubrió que los ensayos escritos por ChatGPT superaban a los escritos por humanos en la medida en que utilizaban una estructura y narrativa más académicamente deseable. Asimismo, al comparar el diálogo humano con uno generado por ChatGPT, Sandler et al.23 Descubrió que el LLM también tenía niveles más altos de pensamiento analítico. Aunque no realizamos análisis cualitativos o cuantitativos para explorar esto, notamos que los ensayos generados por IA tenían una estructura formulada, probablemente influenciada por la indicación que indicaba al LLM que escribiera “un ensayo”, similar a lo que Herbold et al.15 encontrados (aunque se centraron en ensayos más argumentativos y estructurados). Esto incluía, entre otras cosas, el uso de frases fijas como “Durante mis estudios de medicina” para abrir ensayos y “En conclusión” para cerrarlos (Archivo complementario 2). Si las personas que evalúan ensayos en contextos educativos encuentran un lenguaje tan formulado, podría indicar que los autores utilizaron algún tipo de herramienta basada en IA o LLM. Este hallazgo también es similar a lo que Li et al.21 identificado en su estudio, donde investigaron la capacidad de los LLM para escribir textos reflexivos sobre una amplia gama de temas. Los autores notaron que las reflexiones generadas por ChatGPT tenían una menor variabilidad en términos de la cantidad de oraciones, palabras únicas y la cantidad total de palabras en comparación con las escritas por los estudiantes.
Mientras tanto, el hallazgo de que los ensayos escritos por IA tienden a tener un lenguaje más emocionalmente positivo y auténtico en comparación con los ensayos escritos por estudiantes es algo poco intuitivo. Esto podría interpretarse en función de los resultados de un experimento anterior en el que un servicio de chat de apoyo emocional en línea que utilizaba GPT-3 se percibía como un mayor apoyo emocional que las respuestas humanas. Sin embargo, una vez que los participantes aprendieron que estas respuestas no fueron generadas por humanos, cualquier beneficio que hubieran obtenido de estos servicios desapareció.24. Esto está en línea con lo que Jiang et al. observado, también22. Planteamos la hipótesis (aunque no podemos confirmarlo) de que los estudiantes fueron más reservados al expresar sus emociones y posturas debido a la ambigüedad ética de sus situaciones de la vida real, lo que resultó en puntuaciones más bajas en autenticidad y afecto/tono. Mientras que Sandler et al.23 no observaron una diferencia en el afecto entre el diálogo humano y el generado por ChatGTP, sí observaron que este último tenía valores más altos para el tono emocional positivo y los procesos sociales. Esto está en línea con nuestros resultados, lo que respalda sus hallazgos de que los LLM podrían percibirse como “más humanos que humanos”.23. Este tono positivo que observamos en los ensayos escritos por IA podría sugerir que proporcionaron “mejores escenarios” idealizados y respuestas más moralmente deseables, con resultados generalmente más positivos a los dilemas éticos. Finalmente, las diferencias lingüísticas entre Bard y ChatGPT observadas en nuestro estudio, especialmente la mayor autenticidad y la mayor frecuencia de palabras complejas observadas en las puntuaciones LIWC de los ensayos generados por ChatGPT, pueden explicarse por comparaciones anteriores de estos dos LLM, donde ChatGPT parecía funcionar. mejor que Bard para adaptarse a diferentes contextos y realizar tareas más complejas e intensivas, al mismo tiempo que tiene mayores capacidades generales para redactar textos25,26,27,28,29. Sin embargo, nuestra observación de que los ensayos generados por ChatGPT tienen valores de autenticidad más altos que los escritos por humanos contrasta con los hallazgos de Sandler et al.23aunque la diferencia que observamos fue marginalmente significativa en el análisis completo e inexistente después de comparar ensayos escritos por estudiantes reales con sus equivalentes generados por IA.
Nuestros hallazgos indican que las herramientas basadas en IA pueden ser bastante eficientes a la hora de producir ensayos similares a los humanos relacionados con la ética y la escritura sobre experiencias y opiniones personales, lo que concuerda con las observaciones de Sandler y sus colegas.23. Las diferencias psicométricas observadas entre la IA y los ensayos escritos por estudiantes se volvieron mucho más matizadas en nuestros subanálisis de ensayos coescritos por IA, lo que indica que probablemente fueron modificados por los estudiantes después de que fueron generados por un LLM. A medida que las instituciones de educación superior y las iniciativas globales avanzan hacia la implementación de regulaciones para el uso de herramientas de escritura basadas en IA30,31implementar salvaguardias efectivas será una máxima prioridad25. El uso de software de detección es otra posibilidad, pero puede no garantizar completamente que los ensayos generados por IA suficientemente modificados se identifiquen con éxito. También es probable que los humanos sean capaces de reconocer por sí mismos los ensayos escritos por IA.32 y que el software de detección puede ser simplemente una herramienta complementaria para mejorar o confirmar sus observaciones. Así, por ejemplo, lo utilizamos en nuestro estudio, ya que nos permitió confirmar nuestras suposiciones de que algunos de los ensayos escritos por los estudiantes fueron generados por IA. Esta cuestión podría examinarse en investigaciones futuras, donde evaluadores humanos ciegos podrían verificar si ensayos menos formales y no académicos fueron escritos por una IA o un humano, y donde su desempeño podría compararse con las herramientas de detección de IA disponibles. Para abordar los desafíos que plantea la IA a las tareas basadas en ensayos, puede ser necesario reintroducir tareas de ensayos escritos a mano para garantizar que los estudiantes realmente apliquen sus propias habilidades de pensamiento crítico sin depender de la escritura asistida por IA. Independientemente de si la IA se integrará completamente como parte de las tareas y exámenes basados en ensayos o si se mantendrán formatos más tradicionales, se deben adoptar e integrar reglas claras para el uso de la IA en el entorno educativo teniendo en cuenta todos estos factores. en consideración, así como una definición clara sobre qué prácticas constituyen plagio en el contexto de la IA.26.
La principal fortaleza de nuestro estudio es el uso del software LIWC, que ha sido ampliamente validado en investigaciones anteriores. Esto nos permitió comparar cuantitativamente diferentes tipos de ensayos. Otra fortaleza importante es que utilizamos un conjunto de datos seleccionados con un tema específico. Específicamente, recopilamos un conjunto de ensayos comparativamente pequeño, pero centrado en un tema (con una alta tasa de respuesta de los estudiantes) producidos en un contexto de la vida real, en lugar de utilizar ensayos de bases de datos existentes o fuentes en línea. Esto significó que nuestro hallazgo refleja tanto cómo escriben los participantes de nuestro estudio en la práctica como cómo podrían usar herramientas de inteligencia artificial para generar ensayos. Sin embargo, nuestro estudio también tiene algunas limitaciones. Los estudiantes que escribieron los ensayos no eran hablantes nativos de inglés; sin embargo, asistían a un programa médico totalmente basado en el idioma inglés durante el cual también habían presentado tareas basadas en ensayos dentro de cada año de estudio anterior, lo que significa que su experiencia y conocimiento del idioma eran suficientes. También utilizamos ChatGPT 3.5 y Bard, aunque en ese momento había disponibles versiones más nuevas y de pago, como ChatGPT 4.0. Esta elección se debió al hecho de que ambos eran fácilmente accesibles para los estudiantes y de forma gratuita; El uso de versiones pagas de los LLM podría no reflejar situaciones de la vida real, ya que pensamos que era poco probable que los estudiantes pagaran las tarifas necesarias para acceder a los modelos más avanzados. Además, los dos LLM tienen algunas diferencias inherentes que se han destacado en varios estudios previos. Por ejemplo, un estudio reciente encontró que ChatGPT genera ensayos con oraciones y redacción más complejas, mientras que Bard genera textos más cohesivos.19. Otra investigación que impulsó a los dos LLM a utilizar un conjunto estandarizado de preguntas cerradas y abiertas encontró que Bard genera respuestas más largas pero más precisas, lo que aparentemente contrasta con el estudio de Borji y Mohammadian, quienes descubrieron que ChatGPT generalmente supera a Bard en términos. de la exactitud de las respuestas a un conjunto diverso de preguntas29,33. Sin embargo, a pesar de estas divergencias, los investigadores generalmente coinciden en que ambos LLM son altamente capaces de generar texto y contenido, especialmente en el contexto de la educación.19,20,29,33. Finalmente, aunque pudimos identificar una cierta cantidad de ensayos generados por IA a través de detectores de IA, no podemos determinar si hubo falsos positivos/negativos, o si otros estudiantes manipularon suficientemente los ensayos generados por IA para hacerlos indetectables. Para minimizar el impacto de esta limitación, utilizamos dos tipos diferentes de software de detección de IA para identificar dichos textos, mientras que todos los ensayos escritos por los estudiantes también habían sido previamente verificados de forma independiente por dos evaluadores humanos.
You may like
Noticias
Mejoras de experiencia del cliente de Google Cloud y Verizon Drive para clientes de Verizon con Gemini Integration
Published
2 horas agoon
9 abril, 2025
Las soluciones con Gemini conducen a avances significativos en la experiencia del cliente de Verizon
Las Vegas, 9 de abril de 2025 / PRNEWSWIRE/ – Hoy, Google Cloud anunció los resultados impactantes de su colaboración con Verizon, que muestra cómo la integración de la tecnología generativa de IA (Gen AI) de Google Cloud, incluidas la plataforma Vertex AI, los modelos Gemini y el conjunto de participación del cliente, transforma significativamente las operaciones de primera línea de Verizon. Esta asociación estratégica ha llevado a una capacidad de respuesta integral del 95% para las consultas de los clientes, lo que resulta en interacciones de atención al cliente demostrablemente más eficientes y efectivas.
En los últimos cinco años, Verizon ha implementado con éxito herramientas innovadoras impulsadas por Google Cloud Technology para optimizar las interacciones de los clientes y reducir la carga cognitiva de sus empleados. Estas herramientas centradas en el humano funcionan como un socio inteligente de IA, que brinda orientación óptima y ofertas relevantes. De manera crucial, estas innovaciones permiten al equipo de Verizon a construir relaciones más fuertes con los clientes, reconociendo el valor de cada interacción.
Google Cloud AI Powers Capacidades de agente mejoradas en Verizon
El “Asistente de investigación personal”, un agente de IA conversacional desarrollado a través de la colaboración entre Verizon y Google Cloud, está impulsado por el Vertex AI de Google Cloud, los modelos Gemini y el Panel de asistencia de agente. Esta herramienta sofisticada proporciona a los trabajadores de primera línea de Verizon respuestas en tiempo real, conscientes de contexto y personalizadas a las consultas de los clientes, eliminando la necesidad de buscar manualmente a través de amplias bases de conocimiento. Operando de manera proactiva, el asistente sugiere preguntas relevantes que los clientes pueden tener y proporcionan respuestas inmediatas cuando los agentes escriben una pregunta.
Implementado en 28,000 de los representantes de atención al cliente de Verizon y las tiendas minoristas, el “Asistente de investigación personal” anticipa las necesidades de los clientes y ofrece soluciones personalizadas, logrando un alto nivel de precisión y garantizando que las consultas de los clientes se aborden de manera consistente. Se están implementando más mejoras, como el resumen automatizado de la conversación y los recordatorios de acción de seguimiento, para optimizar los flujos de trabajo del agente.
Esta innovación se basa en el viaje de transformación que Verizon ha emprendido para implementar estratégicamente la IA de Google Cloud.
La IA generativa de Google Cloud agiliza la resolución de problemas de Verizon
El agente de IA “solucionador de problemas” integra la plataforma de personalización de Verizon con la IA Gen AI de Google Cloud para ofrecer un soporte de solución de problemas avanzado, ayudando en la resolución de los problemas de los clientes de manera más rápida y efectiva. Al integrar la suite de participación del cliente de Google Cloud y el Panel de asistencia de agente con la base de conocimiento integral de Verizon, la plataforma ofrece soluciones precisas y eficientes. Esta integración es particularmente beneficiosa para los nuevos representantes de atención al cliente en Verizon, lo que les permite resolver problemas complejos con mayor confianza y conducir a una mejora significativa en el tiempo de resolución de problemas.
Verizon mejora la participación del cliente con los agentes virtuales inteligentes de Google Cloud
Verizon también ha implementado varias experiencias orientadas al cliente de Gen Ai que brindan a los usuarios apoyo personalizado, natural y conversacional. Estas experiencias se construyen dentro de los agentes de conversación y están impulsadas por los modelos Gemini de Google. Permiten a los clientes de Verizon tener conversaciones de lenguaje natural con asistentes virtuales por teléfono o chat, como en la aplicación My Verizon. Estos agentes virtuales inteligentes ayudan a los clientes a resolver problemas complejos a través del diálogo intuitivo, guiados por instrucciones simples de lenguaje natural que reflejan las prácticas comerciales de Verizon.
“Nuestra colaboración con Google Cloud y la integración de Gemini en nuestras plataformas de atención al cliente marcan un avance significativo en nuestro compromiso de proporcionar experiencias excepcionales del cliente”, dijo Sampath Sowmyanarayan, director ejecutivo de Verizon Consumer. “Los resultados tangibles demuestran el poder de la IA para mejorar la eficiencia y capacitar a nuestros equipos de atención al cliente”.
“El impacto de Gemini en las operaciones de servicio al cliente de Verizon es un testimonio de nuestra profunda asociación y el compromiso de Verizon con la innovación continua”, dijo Thomas KurianDirector Ejecutivo, Google Cloud. “Estos resultados demuestran el potencial de la IA para no solo mejorar las operaciones, sino también para crear interacciones más significativas y útiles para los clientes en todas partes, lo que finalmente impulsa un valor significativo para las empresas”.
Google Cloud continuará trabajando con Verizon, aprovechando la suite de participación del cliente y sus capacidades actualizadas para permitir nuevas experiencias en cada punto de contacto comercial. Esta próxima generación de la suite, impulsada por Gemini, simplificará cómo los usuarios crean y implementan la Generación de AI y convertirán cada interacción con el cliente en una oportunidad de construcción de marca, fomentando relaciones más fuertes de los clientes para Verizon.
Esta noticia destaca la fuerte y evolución de la asociación entre Google Cloud y Verizon, centrada en impulsar la innovación y ofrecer soluciones transformadoras para los clientes. Al aprovechar las capacidades de IA de vanguardia de Google Cloud y la red líder de Verizon y las extensas plataformas de participación del cliente, las dos compañías están estableciendo nuevos estándares para la excelencia en el servicio al cliente.
Acerca de Google Cloud
Google Cloud es el nuevo camino a la nube, proporcionando herramientas de IA, infraestructura, desarrollador, datos, seguridad y colaboración construidas para hoy y mañana. Google Cloud ofrece una pila de inteligencia artificial potente, totalmente integrada y optimizada con su propia infraestructura a escala de planeta, chips personalizados, modelos de IA generativos y plataforma de desarrollo, así como aplicaciones con AI, para ayudar a las organizaciones a transformar. Los clientes en más de 200 países y territorios recurren a Google Cloud como su socio de tecnología de confianza.
Fuente de Google Cloud

Paolo Ardoino, CEO de Tether
Wolfgang Wilde para Forbes
El viernes es tan ocupado como cualquier otro para Paolo Ardoino. El CEO multimillonario de Tether, emisor de los $ 144 mil millones de USDT Stablecoin, está celebrando un tribunal en las oficinas de Manhattan de Cantor Fitzgerald, presentando entrevistas consecutivas con los periodistas ansiosos por preguntar sobre los planes estadounidenses de su compañía. Cantor, dirigido durante décadas por ahora, el secretario de Comercio de los Estados Unidos, Howard Lutnick, no solo sirve como el custodio principal de Tether para los Tesoros de los Estados Unidos, sino que también posee una participación del 5% en la compañía.
A pocas semanas después de la nueva administración Trump, Ardoino ha volado para reunirse con legisladores en Capitol Hill y reguladores de la Comisión de Comercio de Futuros (CFTC) de productos básicos. Con los proyectos de ley de stablecoin competidores que avanzan en ambas cámaras del Congreso, Tether quiere un asiento en la mesa. “Creo que es importante que nuestra voz se escuche en el proceso de la factura de Stablecoin”, dice Ardoino. “Nuestros competidores son muy pequeños. No representan los casos de uso reales de Stablecoins”.
Esa es solo una ligera exageración: el rival más cercano, el USDC de Circle, es menos de la mitad de su tamaño, con $ 60 mil millones en la emisión de stablecoin. El siguiente más grande, USDS (anteriormente DAI), tiene alrededor de $ 8 mil millones. Tether es, por supuesto, el líder indiscutible, registrando 30 millones de billeteras nuevas cada trimestre, por el recuento de Ardoino. Tenía una ventaja de primer movimiento y se inclinó en los mercados emergentes, convirtiendo su token de pideo en dólares en una línea de vida en economías volátiles.
El año pasado, las facturas del Tesoro más altas lo ayudaron a generar $ 13 mil millones en “resultado financiero”, lo que llama ganancias (aunque no auditadas) en sus comunicados de prensa. Tether no paga intereses a aquellos que depositan dólares en su stablecoin, USDT y, como resultado, gana la mayor parte de sus ingresos del rendimiento de los tesoreros. También tiene inversiones en criptomonedas, metales preciosos, bonos corporativos y préstamos. Alrededor del 82% de las reservas que respaldan su dólar digital están en efectivo o en papel gubernamental a corto plazo. El principal rival de Tether, Circle, que tiene la intención de hacerse público en los Estados Unidos a finales de este año, informó solo $ 285 millones en ganancias antes de impuestos en 2024, según su reciente presentación de la SEC.
Aún así, Tether, que dice que tiene su sede en El Salvador, ha sido visto durante mucho tiempo que esquivan la supervisión de los Estados Unidos. En 2021, se resolvió con el CFTC por $ 42.5 millones para hacer declaraciones engañosas sobre las reservas que respaldan el USDT. Ardoino, quien durante mucho tiempo ha tenido su sede en Lugano, Suiza, quiere voltear esa narrativa. “Algunos de nuestros competidores han tratado de impulsar las regulaciones hacia la mata de la capa. Toda su estrategia fue ‘Tether nunca estará en los Estados Unidos. Tether tiene miedo de venir a los Estados Unidos’. Bueno, aquí estamos ”, dice con una sonrisa. “Y ahora incluso estamos pensando en crear un establo doméstico en los EE. UU. ¿Qué tan divertido sería para nuestros competidores?”
No reemplazaría el USDT, lo que Ardoino dice que está diseñado especialmente para los mercados emergentes, donde gran parte del volumen de Tether se mueve sobre la cadena de bloques Tron del multimillonario Justin Sun. En cambio, sería un producto paralelo adaptado a los EE. UU., Una economía altamente digital y altamente digital. “No puede crear algo que sea inferior o igual a PayPal, Zelle, CashApp”, admite. “Tomaremos un poco de tiempo para profundizar en el mercado, pero tenemos algunas ideas sobre cómo podemos crear un gran producto centrado en los pagos digitales”. Tether también contrató a un CFO el mes pasado para finalmente realizar una auditoría financiera completa, que ha prometido durante años. Las conversaciones están en marcha con una de las cuatro grandes firmas de contabilidad, según la compañía.
Ardoino nacido en Italia se burla de las instituciones que persiguen las instituciones de persecución: “Las instituciones lo traicionarán por un punto básico”, y es igualmente despectivo con la obsesión de la industria con las agudas de la industria con el rendimiento que, como los fondos del mercado monetario, los depositantes de pago por el privilegio de mantener su dinero. Son “una mala idea”, dice rotundamente. Primero, probablemente sean valores. En segundo lugar, es una carrera hacia el fondo. “Si tiene que devolver todo el rendimiento, no ganará dinero. Y si dice” devolveré todo aparte del 1%”, entonces alguien más dirá:” Bien, devolveré todo menos un punto básico “”, plantea.
Actualmente, el Congreso considera las establo que llevan el rendimiento de los proyectos de ley de stablecoin, una respuesta probable a las preocupaciones de que tales tokens podrían competir con los bancos y otras instituciones financieras tradicionales que ofrecen cuentas de ahorro y fondos del mercado monetario.
Si está en los EE. UU., Se queja de no ganar intereses, Ardoino admite. “¿Pero por qué usar USDT? Puedes comprar T-Bills tú mismo”. En lugares como Argentina, argumenta, donde la moneda local puede balancearse 10% en un solo día, un rendimiento anual del 4% es irrelevante. “No les importa. Solo quieren el producto que funcione. El problema es que la mayoría de nuestros competidores miran esta calle y la siguiente. No pueden identificar dónde está África en el mapa”.
Ardoino hace una excepción para un aspirante a rival: World Liberty Finance, una mayoría criptográfica propiedad de la familia Trump, que recientemente presentó planes para un stablecoin denominado USD1. “Me gusta mucho el USD1, y me gustan los chicos de World Liberty Finance”, dice Ardoino. “Les dije ‘Estaré feliz de ser tu amigo y ayudarte a crear un producto aquí que sea exitoso'”. Se ha reunido con uno de los cofundadores de la compañía, aunque dice que no ha habido conversaciones de inversión, y no ha conocido a los Trumps. Todavía no, de todos modos.
Si bien los planes de stablecoin estadounidenses de Tether todavía son tempranos e inciertos, está avanzando en un intento de diversificarse en la inteligencia artificial. La compañía planea lanzar su propia plataforma AI, una alternativa de igual a igual a modelos como OpenAI, en junio (o septiembre), según Ardoino.
“Nuestra plataforma le permitirá mantener el control sobre sus propios datos y hacer todas las inferencias, toda la lógica de IA compleja dentro de su propio dispositivo, desde un teléfono inteligente de $ 30 hasta un iPhone y un teléfono Android a cualquier computadora portátil, y también conectarse directamente a otros dispositivos para obtener más energía. Es una forma de controlar sus datos para que no tenga que compartirlo con Chatgpt, por ejemplo”, dice Ardoino, presionando la criticación de la cría “, presionando la cría”. ideología. “La centralización es débil. Creo que Openai y todas estas otras compañías eventualmente evaporarán porque son solo operaciones que pierden dinero. Están tratando de ordeñar los datos de las personas”.
La visión de Tether es lo contrario: un nicho modelos de nicho de nicho en lugar de un modelo de Dios. “Todos pueden crear un modelo centrado en una cosa específica”, dice Ardoino, estudiantes, universidades, pequeñas empresas. La plataforma será gratuita, aunque cada agente eventualmente tendrá una billetera USDT horneada.
Hasta ahora, Tether ha empleado a unos 60 desarrolladores, aproximadamente un tercio de su personal total, para construir el sistema, que es autofinanciado. Relacionado con su expansión a la IA, la compañía ha invertido dinero en su fondo de riesgo, ahora totalizando alrededor de $ 10 mil millones, según Ardoino, lo que lo convierte en uno de los más grandes entre las empresas criptográficas. Las inversiones podrían ayudar a aumentar el apoyo para su nuevo negocio de las compañías de cartera. Se estima que Tether ha invertido más de $ 1 mil millones en múltiples transacciones en 2023 y 2024 en datos del norte, un operador del centro de datos que figura en Alemania.
Ardoino dice: “Quiero que se conozca a Tether, no solo por su stablecoin, sino por su tecnología, una neta positiva para el mundo”.
Noticias
Google lanza una plataforma de seguridad unificada y presenta agentes de Géminis para la detección de amenazas
Published
3 horas agoon
9 abril, 2025
Google LLC anunció hoy una ola de capacidades artificiales basadas en inteligencia que llegan a la seguridad empresarial, incluido un nuevo servicio llamado Google Unified Security, nuevos agentes de seguridad e innovaciones.
Liderando los anuncios de la conferencia de Google Cloud Next esta semana en Las Vegas está la introducción de Google Unified Security, una nueva plataforma con AI que consolida las ofertas de seguridad actuales de la compañía en una experiencia única e integrada. El nuevo servicio está diseñado para abordar la complejidad y fragmentación de los entornos de seguridad empresarial al reunir la inteligencia de amenazas, las operaciones de seguridad, la seguridad en la nube y la navegación empresarial segura en un solo servicio.
Se ha creado seguridad unificada para ayudar a las organizaciones a pasar de posturas de seguridad reactivas a proactivas. El servicio enriquece automáticamente la telemetría de seguridad con la última inteligencia de amenazas de Google para ofrecer una priorización de amenazas más rápida y una respuesta más inteligente.
El Servicio también integra las ideas del Centro de Comando de Telemetría y Seguridad de Chrome Enterprise para permitir a los analistas evaluar y reducir el riesgo en cada capa de la pila, incluidas las cargas de trabajo de IA. Jugar un papel clave, Gemini, la IA generativa de Google, ayuda a agilizar las investigaciones, automatizando los flujos de trabajo de respuesta y eliminando los silos operativos.
El enfoque unificado adoptado por la plataforma simplifica los conjuntos de herramientas y acelera la toma de decisiones. El comportamiento del navegador ahora se integra directamente en los flujos de trabajo de detección, mientras que las simulaciones de actores de amenaza prueban las defensas en tiempo real. Las capacidades brindan a los equipos de seguridad la capacidad de identificar exposiciones, validar las protecciones y mejorar la resiliencia antes de que las amenazas se materialicen.
En las pruebas, compañías como Charles Schwab Corp. informan tiempos de respuesta más rápidos y una mejor visibilidad en sus entornos.
“Las capacidades de respuesta automatizada han reducido drásticamente nuestro tiempo de resolución de investigación al tiempo que proporciona un alto grado de visibilidad y escala en todo nuestro entorno informático”, dijo Bashar Abouseido, director de seguridad de la información de Charles Schwab. “La plataforma ha facultado a nuestro equipo para centrarse en iniciativas estratégicas y trabajos de alto valor”.
Agentes de seguridad
Google también está avanzando su visión de la IA agente con la introducción de nuevos agentes de “Géminis en seguridad”, diseñados para trabajar junto con analistas humanos para acelerar las investigaciones y reducir la carga operativa.
En las operaciones de seguridad de Google, un agente de triaje de alerta que puede realizar investigaciones dinámicas en nombre de los usuarios se verá previamente previa en el segundo trimestre. El agente realiza investigaciones dinámicas analizando el contexto de alerta, recopilando datos relevantes y entregando un veredicto, completo con evidencia y razón. El agente Always-On tiene como objetivo reducir la carga de trabajo repetitiva de analistas de Nivel 1 y Nivel 2, que a menudo transmiten cientos de alertas diariamente.
Google Threat Intelligence también está obteniendo un agente de análisis de malware que puede evaluar el código sospechoso, incluida la ejecución de rutinas de desobfuscación y resumir sus hallazgos.
Las ofertas de IA de agente tienen como objetivo entregar una detección y respuesta más rápidas con visibilidad completa y flujos de trabajo simplificados. En palabras de Google, “representan un catalizador para los equipos de seguridad para reducir el trabajo, desarrollar la verdadera resistencia cibernética e impulsar la transformación del programa estratégico”.
Operaciones de seguridad
En el frente de operaciones de seguridad, Google ha introducido nuevas capacidades de gestión de tuberías de datos, que ahora están generalmente disponibles, que ayudan a los clientes a administrar mejor la escala, reducir los costos y satisfacer los mandatos de cumplimiento. Los usuarios ahora pueden transformar y preparar datos para el uso posterior, enrutar datos a diferentes destinos y múltiples inquilinos para administrar la escala, filtrar datos para controlar el volumen y redactar datos confidenciales para el cumplimiento.
También está disponible en la actualidad hoy el servicio de defensa de amenazas Mandiant para las operaciones de seguridad de Google, que proporciona una detección integral de amenazas activas, caza y respuesta. El servicio incluye expertos mandiantes que trabajan junto con los equipos de seguridad de los clientes, utilizando técnicas de caza de amenazas asistidas por AI-AI para identificar y responder a amenazas, realizar investigaciones y respuesta a escala a través de operaciones de seguridad Soar Playbooks, extendiendo efectivamente los equipos de seguridad de los clientes.
Centro de comando de seguridad
Google continúa mejorando el Centro de comando de seguridad con nuevas capacidades centradas en proteger los sistemas de IA, los datos confidenciales y mejorar los flujos de trabajo de cumplimiento.
La oferta de protección de IA recientemente anunciada ayuda a los clientes a descubrir activos de IA, modelos y datos seguros, y detectar amenazas en todo el ciclo de vida de la IA. Una característica clave, Model Armor, ahora está generalmente disponible e integrada con Vertex AI, lo que permite aplicaciones automáticas de seguridad de seguridad y seguridad de seguridad en múltiples nubes sin requerir cambios en la aplicación. Además, las nuevas capacidades de gestión de la postura de seguridad de datos, establecidas para obtener una vista previa en junio, respaldarán el descubrimiento, la clasificación y la gobernanza de los datos confidenciales, incluidos los datos de capacitación de IA, directamente dentro de Google Cloud Analytics y las herramientas de IA.
Para apoyar los esfuerzos de cumplimiento, Google anunció que lanzará un gerente de cumplimiento en vista previa a fines de junio. La nueva herramienta proporcionará un flujo de trabajo unificado para definir políticas, configurar y hacer cumplir los controles, los sistemas de monitoreo y el cumplimiento de la auditoría en función de la base de las cargas de trabajo aseguradas.
Otras mejoras incluyen una integración de vista previa con Snyk Inc. para ayudar a los desarrolladores a encontrar y arreglar vulnerabilidades de software y nuevos paneles de riesgo de seguridad para Google Compute Engine y Kubernetes, ahora generalmente disponible, ofreciendo visibilidad en consolas en las vulnerabilidades y problemas principales.
Google también está expandiendo su programa de protección de riesgos, que ofrece un seguro cibernético con descuento basado en la postura de seguridad en la nube. Los nuevos socios Beazley PLC y Chubb Ltd. se han unido a Google en la iniciativa, ampliando la cobertura internacional y la elección del cliente. En particular, Chubb proporcionará un seguro para los riesgos relacionados con las exploits de computación cuántica, junto con la cobertura afirmativa de los riesgos específicos de IA, disponibles exclusivamente para los clientes y cargas de trabajo de Google Cloud.
Seguridad de datos y redes
Google también está ampliando sus capacidades de seguridad de datos con nuevos avances en la computación confidencial y la protección de datos.
Los nodos GKE confidenciales con AMD SEV-SNP e Intel TDX generalmente estarán disponibles en el segundo trimestre, lo que permite a las organizaciones proteger las cargas de trabajo estándar de Kubernetes sin requerir cambios en el código. Además, los nodos GKE confidenciales con unidades de procesamiento de gráficos NVIDIA Corp. H100 ingresarán a la vista previa, ofreciendo computación confidencial de GPU para tareas de alto rendimiento.
El servicio de descubrimiento de protección de datos confidencial de Google ahora está generalmente disponible para el almacenamiento de Vertex AI y Azure, proporcionando un monitoreo continuo de activos confidenciales. Las próximas características incluyen escaneo de datos en movimiento a través del equilibrio de carga en la nube y proxy web seguro, así como soporte para Dataplex V2.
También previsecieron hoy dos nuevas opciones de seguridad basadas en hardware: un HSM en la nube de un solo inquilino para la administración de claves dedicada y un HSM de metal desnudo mejorado que simplifica la implementación con unidades preconfiguradas.
En el lado de seguridad de la red, Google está permitiendo protecciones más flexibles a través de la integración de seguridad de la red, lo que permite insertar electrodomésticos de red de terceros sin interrumpir las políticas de enrutamiento. Las integraciones fuera de banda ahora también están generalmente disponibles, mientras que las integraciones en banda están en vista previa.
Imagen: Google
Su voto de apoyo es importante para nosotros y nos ayuda a mantener el contenido libre.
Un clic a continuación admite nuestra misión de proporcionar contenido gratuito, profundo y relevante.
Únete a nuestra comunidad en YouTube
Únase a la comunidad que incluye a más de 15,000 expertos en #Cubealumni, incluido el CEO de Amazon.com, Andy Jassy, el fundador y CEO de Dell Technologies, Michael Dell, el CEO de Intel, Pat Gelsinger y muchos más luminarios y expertos.
GRACIAS
Related posts


































































































































































































































































Trending
-
Startups11 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Tutoriales11 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Startups9 meses ago
Startups de IA en EE.UU. que han recaudado más de $100M en 2024
-
Recursos11 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Startups11 meses ago
Deepgram: Revolucionando el Reconocimiento de Voz con IA
-
Recursos11 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Recursos11 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Noticias9 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo