Connect with us

Noticias

Desafíos éticos de ChatGPT: navegando por la regulación de la IA

Published

on

Cuando se lanzó ChatGPT, desarrollado por la empresa estadounidense OpenAI, el gobierno italiano se abalanzó para bloquearlo. El bloqueo fue impuesto por la autoridad de protección de datos, la Garante della Privacy.1

Hubo varias supuestas razones para esta decisión. En primer lugar, ChatGPT no tendría un plan claro de protección de la privacidad al recopilar datos de los usuarios, lo que pondría a la aplicación en desacuerdo con la ley italiana y la normativa europea pertinente, el RGPD. En segundo lugar, faltarían controles de uso efectivos que hagan cumplir la condición de uso de OpenAI de que ChatGPT solo puede ser utilizado por personas mayores de 13 años.

No es ningún misterio que detrás de esta decisión también hay consideraciones más profundas, que impuso un bloqueo temporal de la aplicación para los usuarios italianos y amenazó a OpenAI con multas de hasta el 4% de la facturación mundial.2

La decisión se produjo unos días después de que la empresa matriz cerrara repentinamente ChatGPT durante unas horas el 20 de marzo, después de que alrededor del 1,2% de los usuarios supuestamente experimentaran riesgos para la protección de sus datos debido a las operaciones autónomas del sistema de inteligencia artificial.3

Básicamente, la máquina corría el riesgo de mencionar datos personales (incluidos datos de tarjetas de crédito y datos bancarios) de algunos usuarios en respuesta a consultas de otros usuarios. Obviamente, esto equivale a la divulgación de datos confidenciales sin consentimiento. Es por eso que OpenAI se apresuró a desconectar la aplicación hasta que se solucionó el error.

Pese a todo, tras el bloqueo de la Garante della Privacy, se puede leer en la pantalla de bloqueo que aparece al intentar conectarse desde Italia al sitio oficial que la empresa afirma operar en total conformidad con el RGPD y otras normas nacionales pertinentes.

El caso es que la interacción entre inteligencia artificial y protección de datos es una cuestión muy compleja. Y, por ello, hablar de ‘bugs’ para referirse a hechos como el del 20 de marzo no es del todo exacto. La difusión de datos personales realizada por ChatGPT, en la que utilizó información de unas personas para responder a las preguntas de otras, es una manifestación de cómo funcionan las aplicaciones de aprendizaje automático, como la tecnología LLM (Large Language Model) que está fundamentalmente detrás de la sistema.

De hecho, las respuestas se derivan de generalizaciones hechas a partir del gigantesco corpus de conversaciones, artículos, contenido en línea, etc., que se han proporcionado a la máquina para “entrenarla” a reconocer patrones y conexiones significativas con el fin de desarrollar la capacidad. Reconocer respuestas apropiadas y significativas a preguntas dadas.

Para ello, ChatGPT recopila los mensajes enviados por los usuarios, para poder mejorar reponiendo el material en el que trabaja.

Esta es la razón por la que, por ejemplo, su capacidad para proporcionar respuestas sobre eventos que ocurrieron incluso después de septiembre de 2021 (el momento en que se formuló el conjunto de datos original) mejora a medida que pasa el tiempo. Por lo tanto, el sistema puede utilizar las entradas de cualquiera que se comunique con él como base para desarrollar nuevas salidas para otros usuarios.

Estas operaciones las realiza la máquina de forma autónoma, y ​​no hay manera de saber con certeza qué ‘razonamiento’ se sigue para determinar cierta información como apropiada o inapropiada. No es intuitivo enseñar a ChatGPT que conviene comunicar determinadas cosas y no otras según la situación. Se dice que la inteligencia artificial actúa como una ‘caja negra’, de la que conocemos las entradas, las salidas, pero no el algoritmo que lleva de una a otra.

Esta característica de los sistemas digitales con este grado de autonomía es, por definición, problemática. Y aquí radica la dificultad tanto de OpenAI como de las autoridades competentes para entender cómo regular, por un lado, y regular, por otro, el uso de estas poderosas herramientas en la sociedad.

En efecto, si una aplicación de inteligencia artificial “decide”, sin consultar a nadie, hacer algo que acaba infringiendo los derechos de alguien (de privacidad, por ejemplo), ¿de quién es la responsabilidad? Estrictamente hablando, ni los desarrolladores, ni la empresa matriz, ni los usuarios han hecho nada malo intencionadamente. De lo que estamos hablando aquí es de una posible brecha de responsabilidad entre el malhechor (en este caso la máquina) y la parte responsable.

Poniendo un ejemplo más práctico: supongamos que un coche totalmente autónomo atropella a un peatón, y supongamos que el peatón es completamente inocente y el accidente fue causado por un mal funcionamiento imprevisto y totalmente imprevisible del sistema, de modo que no puede tratarse de una simple negligencia por parte de él. de los desarrolladores.

¿Quién debería acudir a los tribunales por asesinato? ¿Los pasajeros que no conducían? ¿El programador que podría haberlo evitado de alguna manera? ¿La empresa que simplemente comercializó el producto después de probarlo adecuadamente?

Algunos sugieren que podríamos atribuir responsabilidades legales a la propia inteligencia artificial, convirtiéndola en una entidad legal como ya lo hacemos con determinadas empresas, como las sociedades de responsabilidad limitada (LLC). Sin embargo, la comparación no es obvia y existen diferencias importantes entre ambos casos.

Cualquiera que sea el modo en que se aborden estas cuestiones, lo cierto es que será cada vez más necesario diseñar sus propias regulaciones en términos de regulación de la inteligencia artificial. Aunque tanto Estados Unidos como la Unión Europea han anunciado planes para discutir principios sobre los cuales abordar la cuestión, el caso del bloque ChatGPT en Italia subraya que todavía queda mucho por hacer. La actitud adoptada por la Garante della Privacy ha resultado ser demasiado conservadora y, en última instancia, intenta eludir la cuestión.

De hecho, el quid de la cuestión no es que OpenAI esté intentando eludir la normativa GDPR (aunque ha anunciado importantes medidas para adaptarse a las exigencias de las autoridades italianas). La dificultad radica en el hecho de que el GDPR está obsoleto en lo que respecta a tecnologías autónomas como éstas.

Esconder la cabeza en la arena es una expresión de ludismo que no hace más que disuadir, por un lado, a las empresas de innovar y proponer soluciones y mejoras y, por otro lado, a los consumidores de confiar en tales innovaciones y adoptarlas de manera consciente y responsable. manera.

Este artículo fue escrito por Emanuele Martinelli. Emanuele es miembro de Young Voices Europe y estudiante de doctorado italiano en la Universidad de Zurich. Trabaja sobre los límites y modalidades de las aplicaciones de la tecnología de IA en la planificación económica y trabaja como corrector y traductor en los sectores académico y literario. Emanuele también trabaja con Liberales Institut, un grupo de expertos suizo.

1 ChatGPT deshabilitado en Italia: ¿el problema de los datos de ChatGPT y los motivos del bloqueo del Garante de Privacidad?
2 Inteligencia artificial, Privacy Garantor bloquea ChatGPT.
3 MSN. (Dakota del Norte). El error ChatGPT expuso más datos privados de lo que se pensaba anteriormente, confirma OpenAI.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

La batalla de los gigantes tecnológicos

Published

on

OpenAI siempre ha sido excelente para captar la atención en las noticias. Sus anuncios a menudo vienen acompañados de afirmaciones grandes y audaces. Por ejemplo, anunciaron GPT-2 pero dijeron que era demasiado peligroso lanzarlo. O su campaña “12 días de Navidad”, donde mostraron un producto nuevo todos los días durante 12 días.

Ahora, Sam Altman ha compartido sus pensamientos sobre el año pasado, centrándose en la dramática telenovela de la sala de juntas en torno a su despido y regreso. También hizo una predicción audaz:

“Ahora sabemos cómo construir AGI como se entiende habitualmente. En 2025, creemos que los agentes de IA se unirán a la fuerza laboral y cambiarán la forma en que trabajan las empresas”.

AGI (Inteligencia General Artificial) significa crear una IA que sea tan inteligente y general como un humano. A diferencia de la IA estrecha, que está diseñada para tareas específicas como traducir idiomas, jugar al ajedrez o reconocer rostros, AGI puede manejar cualquier tarea intelectual y adaptarse en diferentes áreas. mientras no creo “AGI está cerca” Creo que la IA se unirá a la fuerza laboral, pero tal vez no de la manera que Altman imagina.

¿Está AGI cerca? No, al menos no el AGI que nosotros (o Sam) imaginamos

La llegada de AGI en 2025 parece muy improbable. La IA actual, como ChatGPT, funciona reconociendo patrones y haciendo predicciones, no comprendiendo realmente. Por ejemplo, completar la frase “La vida es como una caja de…” con “chocolates” se basa en probabilidades, no en razonamiento.

No creo que la AGI se produzca en 2025, y muchos expertos están de acuerdo. Demis Hassabis, con quien trabajé en Google, predice que AGI podría llegar alrededor de 2035. Ray Kurzweil estima que 2032, y Jürgen Schmidhuber, director de IDSIA, sugiere más cerca de 2050. Los escépticos son muchos y el cronograma sigue siendo incierto.

¿Importa cuándo? La IA ya es poderosa.

Quizás no importe exactamente cuándo llegará AGI. Incluso Sam Altman recientemente restó importancia a la “G” en AGI, diciendo:

“Creo que alcanzaremos el AGI antes de lo que la mayoría de la gente piensa y importará mucho menos”.

Estoy de acuerdo con esto hasta cierto punto. La IA ya tiene capacidades impresionantes. Por ejemplo, la IA de Netflix conoce tus preferencias cinematográficas mejor que tu pareja. Incluso se ha bromeado sobre los algoritmos de TikTok por reconocer la orientación sexual de alguien antes que ellos. La IA sobresale en el reconocimiento de patrones y, en muchos casos, es mejor que los humanos.

Sam Altman ve que la IA “se une a la fuerza laboral”

El punto más importante del memorando de Sam es su creencia de que la IA “se unirá a la fuerza laboral”. Estoy completamente de acuerdo en que esto va a suceder. Como escribí en mi actualización del agente de IA, para que la IA tenga éxito en el lugar de trabajo, necesita dos cosas clave: (1) acceso a herramientas y (2) acceso a datos. Estos son los pilares para que la IA sea realmente eficaz en entornos empresariales. Sin embargo, aunque Sam a menudo vincula esta idea con AGI, es posible que OpenAI no lidere la tarea de proporcionar estas soluciones de fuerza laboral de IA.

La primera posición de Microsoft: acceso a los usuarios

¿Quién tiene las herramientas laborales? Microsoft. Microsoft. Microsoft. Están en la pole position. La mayoría de la gente ya utiliza productos de Microsoft, les guste o no, y la IA se está integrando profundamente en estas herramientas, con copilotos apareciendo por todas partes.

En 2023 y 2024, muchas nuevas empresas lanzaron impresionantes servicios de inteligencia artificial para trabajos de oficina, solo para ser rápidamente eclipsadas por gigantes como Microsoft y Google, que tienen acceso directo a los clientes. Tomemos como ejemplo a Jasper.ai, una herramienta de inteligencia artificial para redactar textos que alguna vez fue famosa. Como señalé en esta publicación de LinkedIn, características similares ahora están integradas directamente en los productos de Google y Microsoft, lo que hace cada vez más difícil competir para los jugadores más pequeños.

El poder del acceso a los datos

La IA necesita datos para ser verdaderamente eficaz. Si está buscando respuestas sobre los procesos internos de una empresa o información valiosa a partir de documentos, herramientas generales como ChatGPT no serán suficientes. Lo que necesitamos son herramientas que puedan leer y resumir documentos de la empresa, diseñadas específicamente para uso empresarial. Como dije antes, 2025 será el año de la BÚSQUEDA, especialmente la búsqueda empresarial. Las herramientas que pueden responder preguntas, resumir contenido y ayudar a los usuarios a navegar por información compleja cambiarán las reglas del juego.

¿Quién tiene acceso a este tipo de datos? Microsoft es un gran actor, pero no está solo. Salesforce, por ejemplo, posee una enorme cantidad de datos valiosos: interacciones con los clientes, debates, documentos de procesos, estrategias de marketing y más. ¿Salesforce quiere que los agentes de IA ayuden a desbloquear este potencial? Absolutamente.

No sorprende que el director ejecutivo de Salesforce, Marc Benioff, haya criticado recientemente a Microsoft. Llamó a su asistente de IA, Copilot, “decepcionante” y dijo: “Simplemente no funciona y no ofrece ningún nivel de precisión”. Incluso lo llamó “Clippy 2.0”, el insulto más divertido que he escuchado en mucho tiempo, antes de lanzar la propia solución de inteligencia artificial de Salesforce, Agent Forces.

¿OpenAI es “simplemente” la herramienta más inteligente?

OpenAI no tiene el mismo nivel de acceso a datos o alcance al consumidor que Microsoft, ni tiene el tesoro de datos comerciales de Salesforce. Entonces, ¿cuál es su ángulo? Afirman ser la herramienta más inteligente del mercado, y probablemente lo sean, aunque personalmente considero que Claude 3.5 de Anthropic es actualmente mejor que GPT-4 de OpenAI.

OpenAI apuesta por su capacidad para superar a todos los demás con tecnología superior. Es por eso que Sam Altman afirma con seguridad que veremos AGI. ¿Qué hay detrás de esa audaz afirmación? Razonamiento o, como lo llama OpenAI, Razonamiento.

OpenAI y razonamiento

OpenAI lanzó recientemente o1, un modelo diseñado para mostrar capacidades de razonamiento avanzadas a través de un proceso iterativo de autollamada:

  1. Iteración y reflexión: el modelo genera un resultado, lo evalúa o critica y lo refina en una nueva ronda de razonamiento.
  2. Bucle de retroalimentación: esto crea un circuito de retroalimentación donde el modelo revisa sus resultados, los critica y los mejora aún más.

En esencia, GPT con o1 no sólo proporciona respuestas: planifica, critica el plan y lo mejora continuamente.

Lo que es especialmente digno de mención es el cambio de paradigma que esto representa. En lugar de simplemente lanzar un modelo más grande como GPT-5, la próxima generación de modelos de IA se centra en “pensar más” durante la inferencia. Esta capacidad de procesar de forma iterativa puede ser a lo que se refiere Sam Altman cuando dice: “Ahora sabemos cómo construir AGI”.

¿El razonamiento es razón suficiente?

Pero, ¿el “razonamiento” por sí solo hace que OpenAI entre en juego? OpenAI todavía necesita acceso a los datos y una fuerte presencia de usuarios, similar a Salesforce o Microsoft. Para solucionar este problema, OpenAI lanzó la aplicación de escritorio ChatGPT para macOS. Esta aplicación ahora puede leer código directamente desde herramientas centradas en desarrolladores como VS Code, Xcode, TextEdit, Terminal e iTerm2. Esto significa que los desarrolladores ya no necesitan copiar y pegar su código en ChatGPT, una solución común hasta ahora. Es una herramienta realmente útil y una medida inteligente para integrarse más profundamente en el flujo de trabajo del desarrollador.

Chatear con modelos de lenguaje grandes cuesta dinero

Cada llamada a un modelo de lenguaje grande (LLM) cuesta dinero. Para los grandes usuarios de ChatGPT, es posible que la suscripción de $ 20 ni siquiera cubra el costo de su uso. OpenAI recaudó recientemente 6.600 millones de dólares en una ronda de financiación Serie E, un impulso muy necesario para sostener sus operaciones. Si bien Agentforce genera ingresos sólidos de sus clientes y Microsoft disfruta de un enorme fondo de guerra financiera, OpenAI aún se encuentra en las primeras etapas para lograr que las empresas y los usuarios paguen lo suficiente para compensar los elevados costos del desarrollo de IA de vanguardia.

Su nivel premium de $200 por mes, que incluye la versión ampliada de O1, es un paso en esta dirección. ¿Pero vale la pena el precio? Quizás es por eso que AGI sigue siendo parte de la conversación: ayuda a justificar el posicionamiento premium. Sin embargo, la carrera por crear modelos superiores está lejos de terminar. Incluso O1 pronto podría ser superado por alternativas de código abierto, como hemos visto antes con Meta’s Llama.

Hablando de Meta, estoy seguro de que veremos sus intentos de monetizar los modelos de IA en 2025. En última instancia, el mayor desafío para estos actores sigue siendo claro: justificar enormes costos sin asegurar un flujo de ingresos constante y confiable.

Sam tiene razón: los agentes de IA estarán en la fuerza laboral

En 2025, veremos más agentes de IA ingresar a la fuerza laboral, transformando los flujos de trabajo al simplificar, mejorar y automatizar tareas en todas las industrias. Estos no serán modelos AGI que lo abarquen todo, sino modelos más pequeños y especializados diseñados para flujos de trabajo dedicados. La IA ampliará y mejorará los procesos paso a paso, combinando la IA tradicional, la recuperación de contexto y un diseño de usuario sólido para abordar desafíos como la seguridad, las alucinaciones y el control del usuario.

El éxito dependerá de la entrega de valor a través de soluciones bien integradas, fáciles de usar y diseñadas éticamente, como se describe en mi marco para crear herramientas de IA listas para la empresa. Para Sam Altman, la pregunta estratégica clave no será lograr AGI sino cómo fijar el precio de los modelos base de OpenAI para clientes empresariales como Microsoft o Salesforce, especialmente si OpenAI termina compitiendo directamente con ellos.

Pero, ¿cómo trabajaremos con esos nuevos colegas de IA?

Las empresas emergerán como ganadoras en la carrera por mejores modelos, mejores datos y mejores integraciones. Su principal objetivo debería ser formar a los empleados y clientes para que trabajen de forma eficaz con sus nuevos colegas de IA. En mi curso certificado de eCornell sobre soluciones de IA, vi de primera mano cómo la productividad se disparó una vez que los estudiantes aprendieron a comunicarse con un copiloto de IA. Inicialmente, muchos lucharon por lograr resultados, pero una guía paso a paso sobre cómo interactuar con la IA marcó una diferencia significativa.

¿Por qué? Porque incluso con capacidades de razonamiento y planificación, la IA aún no es verdaderamente “general”, por mucho revuelo que genere Sam Altman. Los estudiantes tuvieron que aprender cuándo confiar en la IA y cuándo aplicar el juicio humano. Creo que 2025 será el año en que las empresas se den cuenta de esta necesidad e inviertan mucho en educación sobre IA.

Continue Reading

Noticias

Google TV de Alphabet integrará Gemini AI: informe

Published

on

El equipo de consumidores de Alphabet está preparado para mejorar los televisores que ejecutan su sistema operativo Google TV integrando Gemini AI en su sistema de control de voz Google Assistant. Bloomberg ha informado.

Esta actualización tiene como objetivo mejorar la interacción del usuario con comandos de voz más naturales y capacidades mejoradas de búsqueda de contenido, incluida una integración más profunda de YouTube.

La actualización Gemini, que se espera que se implemente más adelante en 2025, permitirá a los usuarios entablar conversaciones con televisores de terceros sin necesidad de la frase desencadenante “Hola Google” para cada comando.

Google demostró esta característica en la conferencia de tecnología CES.

Además, Google mostró la capacidad de recuperar contenido de forma más natural, como solicitar videos de un viaje reciente guardados en la cuenta de Google Photos de un usuario.

Se afirma que esta actualización es la primera vez que Google lleva Gemini a televisores de terceros que ejecutan su sistema operativo, incluidos los de Sony Group, Hisense Home Appliances Group y TCL Technology Group, luego de su debut en la caja de transmisión propia de Google el pasado año. año.

Acceda a los perfiles de empresa más completos del mercado, impulsados ​​por GlobalData. Ahorre horas de investigación. Obtenga una ventaja competitiva.

Perfil de la empresa: muestra gratuita

¡Gracias!

Su correo electrónico de descarga llegará en breve

Confiamos en la calidad única de nuestros perfiles de empresa. Sin embargo, queremos que tome la decisión más beneficiosa para su negocio, por lo que ofrecemos una muestra gratuita que puede descargar enviando el siguiente formulario.

Por GlobalData






Visite nuestra Política de privacidad para obtener más información sobre nuestros servicios, cómo podemos usar, procesar y compartir sus datos personales, incluida información sobre sus derechos con respecto a sus datos personales y cómo puede darse de baja de futuras comunicaciones de marketing. Nuestros servicios están destinados a suscriptores corporativos y usted garantiza que la dirección de correo electrónico enviada es su dirección de correo electrónico corporativa.

Google TV compite con otros sistemas operativos de televisión, incluidos los de Samsung Electronics, Amazon.com y Roku.

La compañía también presentó un nuevo modo “siempre encendido” para televisores, que utiliza sensores para detectar la presencia del usuario y mostrar información personalizada, como noticias y pronósticos del tiempo.

TCL será el primer fabricante en ofrecer este modo siempre activo a finales de este año, seguido de Hisense en 2026.

Esta función tiene como objetivo proporcionar a los usuarios información relevante cuando están cerca de su televisor, mejorando aún más la experiencia del usuario.

En diciembre de 2024, Google anunció planes para integrar Gemini AI en su plataforma de realidad extendida (XR), Android XR, a través de los auriculares Project Moohan XR de Samsung.


Continue Reading

Noticias

Utilicé estas 7 indicaciones de ChatGPT para ayudar a desarrollar la fortaleza mental y desafiar los pensamientos negativos: he aquí por qué me gustan

Published

on

El invierno puede ser una época difícil para mantenerse motivado y tener pensamientos positivos. Los días más cortos y las temperaturas gélidas son especialmente difíciles para mí porque me encanta el sol y estar al aire libre. Aunque todavía trato de salir y salir a correr cuando el clima lo permite, a menudo me siento deprimido y tiendo a pensar negativamente.

Si bien los terapeutas profesionales no son rival para ChatGPT, en caso de necesidad, a menudo utilizo ChatGPT para explorar estrategias para desarrollar la fortaleza mental mientras desafío los pensamientos negativos durante los meses de invierno.

Aprecio el modo de voz avanzado de ChatGPT porque los usuarios pueden tener una conversación humana sobre cualquier cosa, incluso pensamientos desanimados y desmotivados. Esto es lo que sucedió cuando compartí mis pensamientos con ChatGPT y las sugerencias que me dio.

1. Considere las alegrías invernales simples

(Crédito de la imagen: futuro)

Inmediato: “¿Qué pequeños placeres o actividades acogedoras puedes sugerir para traer calidez y alegría durante la temporada de invierno?”

Continue Reading

Trending