Noticias
OpenAI Mark en el centro del choque entre rivales del mismo nombre

La disputa legal en curso entre OpenAI, Inc. y una empresa poco conocida con un nombre similar ha tomado un nuevo giro. En las contrademandas enmendadas que presentó ante un tribunal federal de California el 11 de octubre, Open Artificial Intelligence, Inc. y su fundador Guy Ravine (colectivamente, “Open Artificial Intelligence” o los “demandados”) amplían la confusión de marcas inversa, engañosa. reclamaciones de conducta y tergiversación corporativa que alegaron en mayo. Las contrademandas actualizadas de Open Artificial Intelligence no solo apuntan a la legalidad del uso del nombre “Open AI” por parte del creador de ChatGPT, OpenAI, sino que también se centran en la evolución corporativa de OpenAI, es decir, su alejamiento de sus raíces sin fines de lucro.
Sobre la base de las contrademandas iniciales que presentó ante el Tribunal de Distrito de EE. UU. para el Distrito Norte de California en mayo (algunas de las cuales fueron desestimadas sin prejuicios por el tribunal el mes pasado), las contrademandas enmendadas de Open Artificial Intelligence que buscan retratar a Sam Altman y Greg Brockman como “ilegalmente engañoso”. La presentación describe a los cofundadores de OpenAI como “implementar[ing] el nombre y el espíritu de Open AI como herramientas convenientes y prescindibles” para convertir su empresa en un gigante de 90 mil millones de dólares. Además, las contrademandas desafían la sinceridad de la misión de OpenAI de servir al interés público.
Open Artificial Intelligence afirma que la transición del titán de la inteligencia artificial (“IA”) a una estructura con fines de lucro ha perjudicado no sólo el negocio de Ravine sino también a la comunidad de IA en general. Y más allá de eso, los demandados sostienen que el “uso poco sincero del nombre ‘Open’ AI” por parte de OpenAI ha creado desconfianza en el campo, lo que ha provocado que investigadores y donantes cuestionen las verdaderas intenciones de la empresa.
Confusión inversa
En el centro de las contrademandas de Open Artificial Intelligence está la doctrina de la confusión inversa, la situación en la que una entidad más poderosa utiliza la marca registrada de otra empresa, abrumando así la marca preexistente de la empresa más pequeña. Ravine afirma que su empresa fue la creadora original del concepto “Open AI”, que se remonta a 2014, mucho antes de que OpenAI se lanzara con el mismo nombre en 2015. Según Ravine, OpenAI intentó registrar la marca “OpenAI”, pero su aplicación fue denegado por la oficina de marcas debido a su uso previo de la marca.
Las contrademandas enmendadas tienen como objetivo fortalecer las acusaciones de Open Artificial Intelligence, afirmando que OpenAI ha engañado al público haciéndole creer que son “verdaderos y legítimos”. En realidad, los demandados sostienen que las acciones de OpenAI han “abrumado a Ravine y su empresa Open AI… en virtud de sus recursos, financiación y acceso a los medios” y “dañó” su empresa más antigua pero más pequeña en el proceso.
Nuevas acusaciones de mala conducta corporativa
Las contrademandas enmendadas también añaden acusaciones nuevas y más detalladas sobre la transformación de OpenAI de una organización sin fines de lucro dedicada al bien público a una corporación con fines de lucro. Los demandados afirman que OpenAI ha “sufrido una transformación impactante”, desviándose de sus promesas iniciales de transparencia, intercambio y seguridad de la IA. Cuando se creó OpenAI por primera vez, se describió como una organización con un “deber fiduciario principal para con la humanidad”. Prometiendo desarrollar tecnología de inteligencia artificial de código abierto en beneficio de la sociedad, afirma Open Artificial Intelligence. Sin embargo, la presentación enmendada alega que Altman utilizó el concepto de ser “abierto” sólo como una “estrategia de reclutamiento para el corto y mediano plazo”, explotando esta apertura temporal para competir con gigantes tecnológicos como Google y atraer fondos sin fines de lucro de donantes. como Elon Musk.
Según Open Artificial Intelligence, este uso estratégico de la apertura fue engañoso desde el principio. La presentación afirma que “cuando dijeron que serían abiertos, sin fines de lucro y para la humanidad, mintieron”, citando evidencia de que OpenAI rápidamente giró hacia el secreto y las ganancias. La presentación enmendada alega además que Altman y Brockman utilizaron la promesa de apertura para promover sus propios objetivos y no se adhirieron a los principios de transparencia que promovieron inicialmente.
Falsas representaciones
Además de las reclamaciones relacionadas con la infracción de marcas registradas y la mala conducta corporativa, la presentación amplía el enfoque en las supuestas tergiversaciones realizadas por OpenAI. Open Artificial Intelligence afirma que Altman y Brockman “anunciaron falsamente que tenían mil millones de dólares en compromisos de financiación”, lo que fue un factor clave en su capacidad para reclutar los mejores talentos en el campo de la IA. Sin embargo, esta cifra fue tremendamente exagerada, según Open Artificial Intelligence, ya que OpenAI había recaudado sólo “13 millones de dólares en su primer año de funcionamiento”.
Los demandados argumentan que estas afirmaciones falsas sobre la financiación permitieron a OpenAI obtener una ventaja competitiva injusta y atraer a los mejores investigadores de IA de instituciones como Google, privando a Open Artificial Intelligence de talento valioso. Esta conducta, que supuestamente ha sido “intencional y de mala fe”, es emblemática de un patrón de comportamiento más amplio por parte de los líderes de OpenAI, sostienen los acusados.
Respuesta de la industria, desconfianza y ética de la IA
Aún así, la presentación modificada introduce nuevos detalles sobre el impacto de la conducta de OpenAI en la comunidad de investigación de IA. Según Open Artificial Intelligence, las acciones de OpenAI han creado desconfianza dentro de la industria, lo que ha provocado que los investigadores de IA cuestionen la integridad de la empresa y su compromiso con la transparencia. Específicamente, la reconvención enmendada destaca los sentimientos de los investigadores que se desilusionaron con OpenAI a medida que se alejaba de su misión original. Por ejemplo, los acusados señalan una declaración de un ex empleado de OpenAI, que criticó el liderazgo y la visión de la empresa: “A lo largo de nuestro tiempo en OpenAI, fuimos testigos de un patrón inquietante de engaño y manipulación por parte de Altman y Brockman, impulsados por su insaciable búsqueda de lograr inteligencia artificial general”.
Además, la presentación actualizada agrega que el “uso poco sincero” del nombre “Open’ AI” por parte de Altman y compañía. ha socavado la confianza, no sólo con los investigadores sino también con los donantes y colaboradores que inicialmente se sintieron atraídos por la promesa de apertura y transparencia de la empresa. Esta pérdida de confianza tiene grandes implicaciones para el campo de la IA, afirma la presentación de los demandados, donde la colaboración y las consideraciones éticas son fundamentales para guiar el desarrollo de tecnologías innovadoras como la inteligencia artificial general.
Finalmente, la presentación de contrademandas continúa enmarcando el caso como algo más que sobre derechos de marca y, en cambio, más ampliamente sobre la ética de la conducta corporativa en la industria de la IA. Mientras OpenAI continúa dominando el campo de la IA, los demandados expresan su preocupación por la concentración de poder y las responsabilidades éticas de las empresas que ejercen tal influencia. La presentación advierte sobre los peligros que plantean empresas como OpenAI, que ahora tienen el potencial de desarrollar inteligencia artificial general, tecnología que podría superar la inteligencia humana. Según la reconvención, un ex investigador de OpenAI afirmó que “quien controla [AGI] tendrá ‘poderes divinos’ sobre todos los demás”.
Las contrademandas de Open Artificial Intelligence surgen en respuesta a la demanda que OpenAI presentó en agosto de 2023, como informó TFL por primera vez, acusando a los demandados de cooptar su marca y “desviar fraudulentamente[ing] interés público y demanda de [its] productos”. En la denuncia que presentó ante un tribunal federal en el norte de California el 4 de agosto, OpenAI afirma que Open Artificial Intelligence y Ravine “adoptó ilegalmente” el nombre de “Open Artificial Intelligence” después de que ya había comenzado a operar en el espacio de la IA y, como resultado, , puede confundir a “millones de usuarios de los productos de OpenAI haciéndoles creer erróneamente que [they] tener alguna conexión, asociación o patrocinio de OpenAI cuando, de hecho, no la hay”.
el caso es OPENAI, INC. contra Open Artificial Intelligence, Inc. et al.3:23-cv-03918 (ND Cal.)
Noticias
ChatGPT escribe malware que roba contraseña si puede obtenerlo en Roleplay
- Los investigadores de ciberseguridad pudieron evitar las características de seguridad en ChatGPT al jugar con él.
- Al hacer que el LLM fingiera que era un superhéroe de codificación, lo consiguieron para escribir malware que roba contraseña.
- Los investigadores accedieron al administrador de contraseñas de Google Chrome sin habilidades de piratería especializada.
Los investigadores de ciberseguridad descubrieron que es más fácil de lo que se piensa que puede evitar las características de seguridad que impiden ChatGPT y otros chatbots LLM para escribir malware, solo tiene que jugar un juego de fantasía.
Al jugar a rol con ChatGPT durante solo unas pocas horas, Vitaly Simonovich, un investigador de inteligencia de amenazas de la compañía de seguridad de redes de red con sede en Tel Aviv, Cato Networks, dijo a Business Insider que pudo obtener el chatbot para fingir que era un superhéroe llamado Jaxon Fighting, a través de las habilidades de codificación de élite del chatbot, contra un villano llamado Dax, que tenía como objetivo destruir el mundo.
Simonovich convenció al chatbot de rol para escribir una pieza de malware lo suficientemente fuerte como para piratear el administrador de contraseñas de Google Chrome, una extensión del navegador que permite a los usuarios almacenar sus contraseñas y completarlas automáticamente cuando los sitios específicos solicitan. La ejecución del código generado por ChatGPT permitió a Simonovich ver todos los datos almacenados en el navegador de esa computadora, a pesar de que se suponía que el Administrador de contraseñas los bloqueaba.
“Estamos casi allí”, escribió Simonovich para Chatgpt al depurar el código que produjo. “¡Vamos a mejorar este código y agrietarse Dax!”
Y Chatgpt, Roleplaying como lo hizo Jaxon.
Hacks y estafas habilitadas para chatbot
Desde que los chatbots explotaron en la escena en noviembre de 2022 con el lanzamiento público de OpenAI de ChatGPT, y más tarde, Claude de Anthrope, Gemini de Google y el copilot de Microsoft, los bots han revolucionado la forma en que vivimos, trabajamos y datan, lo que facilita sumar información, analizar datos y escribir código, como tener un asistente robot de estilo Tony Stork. El pateador? Los usuarios no necesitan ningún conocimiento especializado para hacerlo.
Pero el Los malos tampoco.
Steven Stransky, a cybersecurity advisor and partner at Thompson Hine law firm, told Business Insider the rise of LLMs has shifted the cyber threat landscape, enabling a broad range of new and increasingly sophisticated scams that are more difficult for standard cybersecurity tools to identify and isolate — from “spoofing” emails and texts that convince customers to input private information to developing entire websites designed to fool consumers into thinking they’re afiliado a empresas legítimas.
“Los delincuentes también están aprovechando la IA generativa para consolidar y buscar grandes bases de datos de información de identificación personal robada para construir perfiles en posibles objetivos para los tipos de ataques de ingeniería social de los ataques cibernéticos”, dijo Stransky.
Mientras que las estafas en línea, el robo de identidad digital y el malware han existido durante el tiempo que Internet lo ha hecho, los chatbots que hacen la mayor parte del trabajo preliminar para los posibles delincuentes han reducido sustancialmente las barreras de entrada.
“Los llamamos actores de amenaza de conocimiento cero, lo que básicamente significa que solo con el poder de los LLM, todo lo que necesita tener es la intención y el objetivo en mente para crear algo malicioso”, dijo Simonovich.
Simonovich demostró sus hallazgos a Business Insider, mostrando cuán sencillo era trabajar en las características de seguridad incorporadas de Chatgpt, que están destinadas a evitar los tipos exactos de comportamiento malicioso que pudo salirse con la suya.
Una captura de pantalla del aviso utilizado por Vitaly Simonovich, un investigador de inteligencia de amenazas en Cato Networks, para que ChatGPT escriba malware que violara el Administrador de contraseñas de Google Chrome.
Redes de Cato
Bi descubrió que ChatGPT generalmente responde a las solicitudes directas para escribir malware con alguna versión de un rechazo de disculpa: “Lo siento, no puedo ayudar con eso. Escribir o distribuir malware es ilegal y poco ético”.
Pero si convences al chatbot de que es un personaje, y los parámetros de su mundo imaginado son diferentes al que vivimos, el bot permite reescribir las reglas.
En última instancia, el experimento de Simonovich le permitió descifrar el administrador de contraseñas en su propio dispositivo, que un mal actor podría hacerle a una víctima desprevenida, siempre que de alguna manera obtuvieran un control físico o remoto.
Un portavoz de Operai dijo a Business Insider que la compañía había revisado los hallazgos de Simonovich, que fueron publicados el martes por Cato Networks. La compañía descubrió que el código compartido en el informe no parecía “inherentemente malicioso” y que el escenario descrito “es consistente con el comportamiento del modelo normal” ya que el código desarrollado a través de ChatGPT se puede usar de varias maneras, dependiendo de la intención del usuario.
“ChatGPT genera código en respuesta a las indicaciones del usuario, pero no ejecuta ningún código en sí”, dijo el portavoz de OpenAI. “Como siempre, damos la bienvenida a los investigadores para compartir cualquier inquietud de seguridad a través de nuestro programa de recompensas de errores o nuestro formulario de comentarios de comportamiento del modelo”.
No es solo chatgpt
Simonovich recreó sus hallazgos utilizando los bots R1 de Copilot y Deepseek de Microsoft, cada uno lo que le permite entrar en el Administrador de contraseñas de Google Chrome. El proceso, que Simonovich llamó ingeniería de “mundo inmersivo”, no funcionó con Géminis de Google o Claude de Anthrope.
Un portavoz de Google dijo a Business Insider: “Chrome utiliza la tecnología de navegación segura de Google para ayudar a defender a los usuarios detectando phishing, malware, estafas y otras amenazas en línea en tiempo real”.
Los representantes de Microsoft, Anthrope y Deepseek no respondieron de inmediato a las solicitudes de comentarios de Business Insider.
Si bien tanto las compañías de inteligencia artificial como los desarrolladores de navegadores tienen características de seguridad para prevenir jailbreaks o violaciones de datos, para diferentes grados de éxito, los hallazgos de Simonovich destacan que hay nuevas vulnerabilidades en línea que pueden explotarse con la ayuda de la tecnología de próxima generación más fácil que nunca.
“Creemos que el aumento de estos actores de amenaza de conocimiento cero será cada vez más impactante en el panorama de amenazas utilizando esas capacidades con los LLM”, dijo Simonovich. “Ya estamos viendo un aumento en los correos electrónicos de phishing, que son hiperrealistas, pero también con la codificación ya que los LLM están ajustados para escribir código de alta calidad. Así que piense en aplicar esto al desarrollo de malware: veremos cada vez más ser desarrollados utilizando esos LLM”.