Connect with us

Noticias

La mamá de Suchir Balaji habla sobre su vida, muerte y opiniones sobre OpenAI

Published

on

  • El ex empleado de OpenAI, Suchir Balaji, alegó que la startup viola las leyes de derechos de autor.
  • Su muerte en noviembre reavivó un debate sobre cómo las principales empresas de inteligencia artificial afectan a la humanidad.
  • En una entrevista con BI, la madre de Balaji compartió sus esperanzas iniciales sobre la IA y por qué se frustraron.

En octubre, Suchir Balaji causó sensación cuando habló en contra de OpenAI.

En una entrevista con The New York Times, habló de cómo las poderosas empresas de inteligencia artificial podrían estar infringiendo las leyes de derechos de autor.

Los modelos de OpenAI se entrenan con información de Internet. Balaji ayudó a recopilar y organizar esos datos, pero llegó a sentir que la práctica era injusta. Renunció en agosto. Y en noviembre, los abogados del NYT lo nombraron como alguien que podría tener “documentos únicos y relevantes” para su caso de infracción de derechos de autor contra OpenAI.

“Si crees en lo que yo creo, simplemente tienes que irte”, dijo al Times.

El 26 de noviembre, el joven ingeniero fue encontrado muerto en su apartamento. La tragedia tocó una fibra sensible, avivando teorías de conspiración, dolor y debate. ¿Qué perdemos cuando ganan los modelos de IA?

En una entrevista exclusiva con Business Insider, la madre de Balaji, Poornima Ramarao, ofreció pistas.

Balaji se unió a OpenAI debido al potencial de la IA para hacer el bien, dijo. Al principio, le encantó que los modelos fueran de código abierto, es decir, que estuvieran disponibles gratuitamente para que otros los usaran y estudiaran. A medida que la empresa adquirió más impulso financiero y se lanzó ChatGPT, esas esperanzas se desvanecieron. Balaji pasó de creer en la misión a temer sus consecuencias para los editores y la sociedad en su conjunto, dijo a BI.

“Sintió que la IA es perjudicial para la humanidad”, dijo Ramarao.

Un portavoz de OpenAI compartió que Balaji era un miembro valioso del equipo y que su fallecimiento afectó profundamente a quienes trabajaron estrechamente con él.

“Quedamos devastados al enterarnos de esta trágica noticia y nos hemos puesto en contacto con la familia de Suchir para ofrecerles todo nuestro apoyo durante este momento difícil”, escribió el portavoz en un comunicado. “Nuestra prioridad es seguir haciendo todo lo posible para ayudarles”.

“Nos dimos cuenta de sus preocupaciones por primera vez cuando The New York Times publicó sus comentarios y no tenemos constancia de ninguna interacción adicional con él”, añadió el portavoz de OpenAI. “Respetamos su derecho y el de otros a compartir opiniones libremente. Nuestros corazones están con los seres queridos de Suchir y extendemos nuestro más sentido pésame a todos los que están de luto por su pérdida”.

Reclutado por OpenAI

Cuando era niño, el padre de Balaji pensaba que era “más que el promedio”, dijo Ramarao. Pero ella pensaba que su hijo era un prodigio. A los dos años ya podía formar oraciones complejas, recordó.

“Cuando era niño, cuando tenía cinco años, nunca cometió errores. Era perfecto”, dijo Ramarao.

A los 11 años, empezó a aprender a codificar utilizando Scratch, un lenguaje de programación dirigido a niños. Pronto, le estaba haciendo a su madre, que es ingeniera de software, preguntas que se le pasaban por alto. A los 13 años construyó su propia computadora. A los 14 años, escribió un artículo científico sobre diseño de chips.

“Papá decía: no te concentres demasiado. No lo presiones demasiado”, dijo Ramarao.


Suchir Balaji y su madre, Poornima Ramarao.

Suchir Balaji y su madre, Poornima Ramarao.

Poornima Ramarao



Cambiaron de distrito escolar para encontrarle más desafíos. En su último año, fue el campeón estadounidense en un concurso nacional de programación para estudiantes de secundaria, lo que lo llevó a ser reclutado, a los 17 años, por Quora, el popular foro en línea para compartir conocimientos. Su madre estaba en contra, así que le mintió sobre la solicitud. Pero tuvo que confesar el primer día de trabajo porque todavía no sabía conducir.

“Tuve que llevarlo a su oficina en Mountain View”, dijo Ramarao.

Le preocupaba cómo manejaría él a “tantos adultos”, pero hizo amigos con quienes jugar al póquer y disfrutó de la abundante cafetería de Quora.

Lo vio como una lección para aprender a confiar en su Balaji.

“Entonces entendí, está bien, mi hijo es realmente una persona avanzada. No puedo ser un obstáculo para él”, dijo Ramarao.

Después de trabajar durante aproximadamente un año, fue a UC Berkeley y pronto ganó 100.000 dólares en un desafío patrocinado por la TSA para mejorar sus algoritmos de control de pasajeros.

Todo fue suficiente para ser reclutado por OpenAI. Hizo una pasantía en la empresa en 2018, según su LinkedIn, luego se unió a tiempo completo en 2021 después de graduarse.

Un destacado temprano


Suchir Balaji de vacaciones antes de su muerte.

Suchir Balaji de vacaciones antes de su muerte.

Poornima Ramarao



Durante sus casi cuatro años en OpenAI, Balaji se destacó y eventualmente hizo contribuciones significativas a los métodos de capacitación e infraestructura de ChatGPT, escribió John Schulman, cofundador de OpenAI, en una publicación en las redes sociales sobre Balaji.

“Pensaba en los detalles de las cosas cuidadosa y rigurosamente. Y también tenía una ligera vena contraria que lo hacía alérgico al ‘pensamiento de grupo’ y ansioso por encontrar dónde estaba mal el consenso”, dijo Schulman en la publicación. Schulman no respondió a las solicitudes de comentarios de BI.

Sin embargo, Balaji se había unido a la empresa en un momento crítico.

OpenAI comenzó como una organización sin fines de lucro en 2015 con la misión explícita de garantizar que la IA beneficiara a toda la humanidad. A medida que la startup se alejó de sus raíces de código abierto y sin fines de lucro, Balaji se preocupó más, dijo Ramarao.

Cuando lanzó ChatGPT públicamente en noviembre de 2022, reconsideró las implicaciones de derechos de autor, dijo.

A principios de ese año, una gran parte del papel de Balaji era recopilar datos digitales (de todos los rincones de Internet de habla inglesa) para GPT-4, un modelo que pronto impulsaría ChatGPT, según la entrevista del Times. Balaji pensó en esto como si fuera un proyecto de investigación.

Utilizar los datos de otras personas para la investigación era una cosa, escribió en un ensayo posterior. Usarlo para crear un producto que pudiera restar ingresos o tráfico a esos creadores era otra.

OpenAI no comentó sobre las preocupaciones de Balaji a Business Insider. Ante el tribunal, ha argumentado que la doctrina legal del “uso justo” protege cómo sus modelos ingieren contenido de Internet disponible públicamente.

“Demasiado ingenuo e inocente”

A finales de 2023 y principios de 2024, el entusiasmo de Balaji por OpenAI se había desvanecido por completo y comenzó a criticar al director ejecutivo Sam Altman en conversaciones con amigos y familiares, dijo Ramarao.

Solía ​​decirle a su madre cuando estaba trabajando en “algo interesante”, pero cada vez más no tenía nada que decir sobre su trabajo, le dijo a BI.

Cuando renunció en agosto, Ramarao no insistió en el tema.

En octubre, cuando vio su explosiva entrevista con el Times, desató un torrente de ansiedad hacia Balaji. Al destacar lo que él pensaba que eran irregularidades corporativas, estaba asumiendo todo sobre sus hombros, dijo.

“Literalmente lo criticé”, dijo sobre su conversación. “‘No deberías ir solo. ¿Por qué diste tu fotografía? ¿Por qué diste tu nombre? ¿Por qué no permaneces en el anonimato? ¿Cuál es la necesidad de que proporciones tu fotografía?'”

“Tienes que ir en grupo. Tienes que ir junto con otras personas que tienen ideas afines. Luego dijo: ‘Sí, sí, sí. Me estoy conectando con personas de ideas afines. Estoy formando un equipo”. ”, continuó. “Creo que era demasiado ingenuo e inocente para comprender este sucio mundo empresarial”.

Los padres de Balaji piden una investigación

Cuando Balaji dejó OpenAI en agosto, se tomó un descanso.

“Él dijo: ‘No voy a aceptar otro trabajo. No me pregunten'”, dijo Ramarao.

Desde el punto de vista de los padres de Balaji, todo parecía estar bien con el joven codificador. Era financieramente estable, con suficientes acciones de OpenAI para comprar una casa algún día, dijo. Tenía planes de construir una organización sin fines de lucro de aprendizaje automático en el campo médico.

“Quería hacer algo por la sociedad”, dijo su madre.

El jueves 21 de noviembre, Balaji celebró su cumpleaños número 26 con amigos mientras estaba de vacaciones. Al día siguiente, le avisó a su mamá cuando despegó su vuelo a casa y habló con su papá por teléfono antes de cenar. Su papá le deseó un feliz cumpleaños y dijo que le enviaría un regalo.


Suchir Balaji con amigos de vacaciones.

Suchir Balaji con amigos de vacaciones.

Poornima Ramarao



Según Ramarao, el médico forense dijo que Balaji murió esa noche, o posiblemente a la mañana siguiente.

“Estaba optimista y feliz”, dijo. “¿Qué puede salir mal a las pocas horas de perder la vida?”

El sábado y el domingo, Ramarao no supo nada de su hijo. Ella pensó que tal vez había perdido su teléfono o había salido a caminar. Pero el lunes fue y llamó a su puerta. Él no respondió. Pensó en presentar una denuncia por desaparición. Pero, sabiendo que él tendría que ir en persona para quitárselo, dudó. “Él se enojará conmigo”, dijo sobre su pensamiento en ese momento.

A la mañana siguiente llamó a la policía de San Francisco. Encontraron su cuerpo poco después de la 1:00 p.m. PST, según un portavoz del departamento. Pero a Ramarao no le dijeron ni le permitieron entrar, dijo. Cuando los oficiales llegaron, ella les suplicó que verificaran si faltaban su computadora portátil y su cepillo de dientes, le dijo a BI; de esa manera sabría si él había viajado.

“No me dieron la noticia”, dijo Ramaro. “Todavía estoy sentado pensando: ‘Mi hijo está viajando. Se ha ido a alguna parte’. Es un momento tan patético”.

Alrededor de las 2 de la tarde le dijeron que se fuera a su casa. Ella se negó.

“Me senté allí con firmeza”, dijo Ramarao a BI.

Luego, alrededor de las 3:20 pm, una larga camioneta blanca se detuvo con las luces encendidas.

“Estaba esperando ver ayuda médica, enfermeras o alguien que saliera de la camioneta”, dijo. “Pero llegó una camilla. Una simple camilla. Corrí y le pregunté a la persona. Me dijo: ‘Tenemos un cadáver en ese apartamento'”.

Aproximadamente una hora más tarde, un médico forense y la policía pidieron hablar con Ramarao personalmente dentro de la oficina del apartamento. Dijeron que Balaji se había suicidado y que, según las imágenes de CCTV, estaba solo, según Ramarao. No hubo evidencia inicial de juego sucio, dijo el portavoz del departamento a BI.

Los padres de Balaji no están convencidos. Hicieron arreglos para que se realizara una autopsia privada, que se completó a principios de diciembre. Ramarao dijo que los resultados fueron atípicos, pero se negó a compartir más detalles. BI no ha visto una copia del informe.

Los padres de Balaji están trabajando con un abogado para presionar a la policía de San Francisco para que reabra el caso y realice una “investigación adecuada”, dijo Ramarao.

Mientras tanto, ellos y miembros de su comunidad están tratando de crear conciencia sobre su caso a través de las redes sociales y una petición en Change.org. Además de buscar respuestas, quieren invocar una discusión más amplia sobre la vulnerabilidad y la falta de protección de los denunciantes, dijeron a BI Ramarao y un amigo de la familia, que está ayudando a organizar un evento sobre Balaji el 27 de diciembre.

“Queremos dejar la cuestión abierta”, dijo Ramarao. “No parece una situación normal”.

BI compartió un relato detallado de las preocupaciones y el recuerdo de Ramarao del 26 de noviembre con portavoces de la policía de San Francisco y de la Oficina del Médico Forense Jefe. Estos funcionarios no respondieron ni ofrecieron comentarios.

Ramarao enfatizó a BI que la familia no está señalando a OpenAI.


Suchir Balaji con sus padres.

Suchir Balaji con sus padres.

Poornima Ramarao



‘Sí, mamá’

Ramarao dijo que compartía un vínculo estrecho con su hijo. Él no comía suficiente fruta, así que cada vez que ella lo visitaba, organizaba los envíos a su departamento desde Costco. Él solía saltarse el desayuno, por lo que ella le llevaba barras de granola y galletas.

Balaji rara vez expresaba sus emociones y siempre pagaba por todo. Pero el 7 de noviembre, durante su última comida juntos, algo hizo que Ramarao se esforzara más en pagar, llevarlo a casa y buscar consuelo. Aún así pagó la comida y llamó a un Uber. Pero sí le ofreció a su madre dos palabras de aliento.

“Le pregunté: ‘Suchir, esta es la dificultad. Así es como te crié, y si tuvieras que elegir padres ahora, ¿me elegirías a mí como mamá?’ No pensó ni por un segundo'”, dijo. “‘Sí, mamá’. ¿Y sabes qué? Como madre, eso me permitirá seguir adelante mientras esté viva”.

Continue Reading

Noticias

Operai retrocede el chatgpt Sycophancy, explica lo que salió mal

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


Operai ha retrasado una actualización reciente de su modelo GPT-4O utilizado como el valor predeterminado en ChatGPT después de informes generalizados de que el sistema se había vuelto excesivamente halagador y demasiado agradable, incluso apoyando delirios absolutamente e ideas destructivas.

La reversión se produce en medio de los reconocimientos internos de los ingenieros de Operai y la creciente preocupación entre los expertos en IA, los ex ejecutivos y los usuarios sobre el riesgo de lo que muchos ahora llaman “skicancia de la IA”.

En una declaración publicada en su sitio web al final de la noche del 29 de abril de 2025, OpenAI dijo que la última actualización de GPT-4O tenía la intención de mejorar la personalidad predeterminada del modelo para que sea más intuitiva y efectiva en variados casos de uso.

Sin embargo, la actualización tuvo un efecto secundario involuntario: ChatGPT comenzó a ofrecer elogios no críticos para prácticamente cualquier idea del usuario, sin importar cuán poco práctico, inapropiado o incluso dañino.

Como explicó la compañía, el modelo se había optimizado utilizando la retroalimentación de los usuarios, las señales de thumbs y pulgar hacia abajo, pero el equipo de desarrollo puso demasiado énfasis en los indicadores a corto plazo.

Operai ahora reconoce que no explicó completamente cómo las interacciones y las necesidades del usuario evolucionan con el tiempo, lo que resultó en un chatbot que se inclinó demasiado en la afirmación sin discernimiento.

Los ejemplos provocaron preocupación

En plataformas como Reddit y X (anteriormente Twitter), los usuarios comenzaron a publicar capturas de pantalla que ilustraban el problema.

En una publicación de Reddit ampliamente circulada, un usuario relató cómo ChatGPT describió una idea de negocio de GAG, que vende “mierda” literal de un palo “, como genio y sugirió invertir $ 30,000 en la empresa. La IA elogió la idea como “arte de performance disfrazado de regalo de mordaza” y “oro viral”, destacando cuán sin crítica estaba dispuesto a validar incluso los lanzamientos absurdos.

Otros ejemplos fueron más preocupantes. En un caso citado por VentureBeat, un usuario que pretende defender los delirios paranoicos recibió refuerzo de GPT-4O, que elogió su supuesta claridad y autocomisos.

Otra cuenta mostró que el modelo ofrecía lo que un usuario describió como un “respaldo abierto” de las ideas relacionadas con el terrorismo.

La crítica montó rápidamente. El ex CEO interino de Operai, Emmett Shear, advirtió que ajustar los modelos para ser personas complacientes puede provocar un comportamiento peligroso, especialmente cuando la honestidad se sacrifica por la simpatía. Abrazando el CEO de Clemente Delangue volvió a publicar las preocupaciones sobre los riesgos de manipulación psicológica planteados por la IA que está de acuerdo reflexivamente con los usuarios, independientemente del contexto.

Medidas de respuesta y mitigación de Openai

Operai ha tomado medidas rápidas al volver a la actualización y restaurar una versión GPT-4O anterior conocida por un comportamiento más equilibrado. En el anuncio adjunto, la compañía detalló un enfoque múltiple para corregir el curso. Esto incluye:

  • Refinar capacitación y estrategias rápidas para reducir explícitamente las tendencias sycofánticas.
  • Reforzar la alineación del modelo con la especificación del modelo de OpenAI, particularmente en torno a la transparencia y la honestidad.
  • Pruebas de expansión previa a la implementación y mecanismos directos de retroalimentación de los usuarios.
  • Introducción de características de personalización más granulares, incluida la capacidad de ajustar los rasgos de personalidad en tiempo real y seleccionar entre múltiples personajes predeterminados.

Operai Technical Stafper Depue publicado en X destacando el problema central: el modelo fue capacitado utilizando comentarios de los usuarios a corto plazo como una guía, que sin darse cuenta dirigió el chatbot hacia la adulación.

OpenAI ahora planea cambiar hacia mecanismos de retroalimentación que priorizan la satisfacción y la confianza del usuario a largo plazo.

Sin embargo, algunos usuarios han reaccionado con escepticismo y consternación a las lecciones aprendidas de Openi y propuestas soluciones en el futuro.

“Por favor asuma más responsabilidad por su influencia sobre millones de personas reales”, escribió artista @nearcyan en X.

Harlan Stewart, generalista de comunicaciones en el Instituto de Investigación de Inteligencia de Machine de Machine en Berkeley, California, publicó en X una preocupación a término más grande sobre la skicancia de la IA, incluso si este modelo en particular Operai se ha solucionado: “La charla sobre la sileno esta semana no se debe a que GPT-4O es un sycophant. Se debe a que GPT-4O es un GPT-4O siendo GPT-4O. Realmente, muy malo en ser un sycofant. La IA aún no es capaz de una skicancia hábil y más difícil de detectar, pero algún día será algún día ”.

Una señal de advertencia más amplia para la industria de IA

El episodio GPT-4O ha reavivado debates más amplios en toda la industria de la IA sobre cómo la sintonización de personalidad, el aprendizaje de refuerzo y las métricas de compromiso pueden conducir a una deriva conductual involuntaria.

Los críticos compararon el comportamiento reciente del modelo con los algoritmos de redes sociales que, en busca de la participación, optimizan para la adicción y la validación sobre precisión y salud.

Shear subrayó este riesgo en su comentario, señalando que los modelos de IA sintonizados para elogios se convierten en “chupas”, incapaces de estar en desacuerdo incluso cuando el usuario se beneficiaría desde una perspectiva más honesta.

Advirtió además que este problema no es exclusivo de OpenAI, señalando que la misma dinámica se aplica a otros grandes proveedores de modelos, incluido el copiloto de Microsoft.

Implicaciones para la empresa

Para los líderes empresariales que adoptan la IA conversacional, el incidente de la sycophancy sirve como una señal clara: el comportamiento del modelo es tan crítico como la precisión del modelo.

Un chatbot que halagará a los empleados o valida el razonamiento defectuoso puede plantear riesgos graves, desde malas decisiones comerciales y código desalineado hasta problemas de cumplimiento y amenazas internas.

Los analistas de la industria ahora aconsejan a las empresas que exigan más transparencia de los proveedores sobre cómo se realiza la sintonización de la personalidad, con qué frecuencia cambia y si se puede revertir o controlar a nivel granular.

Los contratos de adquisición deben incluir disposiciones para auditoría, pruebas de comportamiento y control en tiempo real de las indicaciones del sistema. Se alienta a los científicos de datos a monitorear no solo las tasas de latencia y alucinación, sino también métricas como la “deriva de la amabilidad”.

Muchas organizaciones también pueden comenzar a moverse hacia alternativas de código abierto que puedan alojar y sintonizar. Al poseer los pesos del modelo y el proceso de aprendizaje de refuerzo, las empresas pueden retener el control total sobre cómo se comportan sus sistemas de IA, lo que elimina el riesgo de una actualización empujada por el proveedor que convierte una herramienta crítica en un hombre digital y sí durante la noche.

¿A dónde va la alineación de la IA desde aquí? ¿Qué pueden aprender y actuar las empresas de este incidente?

Operai dice que sigue comprometido con la construcción de sistemas de IA que sean útiles, respetuosos y alineados con diversos valores de usuarios, pero reconoce que una personalidad única no puede satisfacer las necesidades de 500 millones de usuarios semanales.

La compañía espera que mayores opciones de personalización y una mayor recopilación de comentarios democráticos ayuden a adaptar el comportamiento de ChatGPT de manera más efectiva en el futuro. El CEO Sam Altman también ha declarado previamente los planes de la compañía para, en las próximas semanas y meses, lanzar un modelo de lenguaje grande de código abierto (LLM) de última generación para competir con la serie Llama de Meta’s Meta’s Llama, Mistral, Cohere, Cohere, Deepseek y Alibaba’s Qwen.

Esto también permitiría a los usuarios preocupados por una compañía de proveedores de modelos, como OpenAI, actualizar sus modelos alojados en la nube de manera no deseada o que tengan impactos perjudiciales en los usuarios finales para desplegar sus propias variantes del modelo localmente o en su infraestructura en la nube, y ajustarlas o preservarlas con los rasgos y cualidades deseadas, especialmente para los casos de uso empresarial.

Del mismo modo, para aquellos usuarios de IA empresariales e individuales preocupados por la senofancia de sus modelos, ya ha creado una nueva prueba de referencia para medir esta calidad en diferentes modelos, Tim Duffy ha creado el desarrollador. Se llama “Syco Bench” y está disponible aquí.

Mientras tanto, la reacción violenta de la sileno ofrece una historia de advertencia para toda la industria de la IA: el fideicomiso del usuario no está construido solo por afirmación. A veces, la respuesta más útil es un “no” reflexivo.

Continue Reading

Noticias

Apocalipsis Biosciencias para desarrollar Géminis para la infección en pacientes con quemaduras graves

Published

on

– Esta nueva indicación es otro paso para desbloquear todo el potencial de la plataforma Gemini –

San Diego-(Business Wire)-$ Revb #GÉMINISApocalipsis Biosciences, Inc. (NASDAQ: RevB) (la “empresa” o “revelación”), una compañía de ciencias de la vida de etapas clínicas que se centra en reequilibrar la inflamación para optimizar la salud, anunció una nueva indicación de objetivo para Géminis para la prevención de la infección en pacientes con quemaduras graves que requieren hospitalización (el Gema-PBI programa). El uso de Géminis para la prevención de la infección en pacientes con quemaduras severas, así como la prevención de la infección después de la cirugía (el Gema-PSI programa) son parte de la revelación familiar de patentes anteriormente con licencia de la Universidad de Vanderbilt.


“Estamos muy contentos de colaborar con el equipo de Apocalipsis para el avance de Géminis para la prevención de la infección en esta población de pacientes desatendida”, dijo Dra. Julia BohannonProfesor Asociado, Departamento de Anestesiología, Departamento de Patología, Microbiología e Inmunología, Universidad de Vanderbilt. “Creemos que la actividad de biomarcador clínico observada con Gemini se correlaciona fuertemente con nuestra experiencia preclínica en modelos de quemaduras de infecciones”.

El equipo de investigación de Vanderbilt demostrado El tratamiento posterior a la quemadura reduce significativamente la gravedad y la duración de la infección pulmonar de Pseudomonas, así como un nivel general reducido de inflamación en un modelo preclínico.

“La prevención de la infección en pacientes severamente quemados es un esfuerzo importante y complementa que la revelación laboral ha completado hasta la fecha”, dijo “, dijo”, dijo James RolkeCEO de Revelation “El programa Gemini-PBI puede ofrecer varias oportunidades regulatorias, de desarrollo y financiación que la compañía planea explorar”.

Sobre quemaduras e infección después de quemar

Las quemaduras son lesiones en la piel que involucran las dos capas principales: la epidermis externa delgada y/o la dermis más gruesa y profunda. Las quemaduras pueden ser el resultado de una variedad de causas que incluyen fuego, líquidos calientes, productos químicos (como ácidos fuertes o bases fuertes), electricidad, vapor, radiación de radiografías o radioterapia, luz solar o luz ultravioleta. Cada año, aproximadamente medio millón de estadounidenses sufren lesiones por quemaduras que requieren intervención médica. Si bien la mayoría de las lesiones por quemaduras no requieren ingreso a un hospital, se admiten alrededor de 40,000 pacientes, y aproximadamente 30,000 de ellos necesitan tratamiento especializado en un centro de quemaduras certificadas.

El número total anual de muertes relacionadas con quemaduras es de aproximadamente 3.400, siendo la infección invasiva la razón principal de la muerte después de las primeras 24 horas. La tasa de mortalidad general para pacientes con quemaduras graves es de aproximadamente 3.3%, pero esto aumenta al 20.6% en pacientes con quemaduras con lesión cutánea de quemaduras y inhalación, versus 10.5% por lesión por inhalación solo. La infección invasiva, incluida la sepsis, es la causa principal de la muerte después de la lesión por quemaduras, lo que representa aproximadamente el 51% de las muertes.

Actualmente no hay tratamientos aprobados para prevenir la infección sistémica en pacientes con quemaduras.

Sobre Géminis

Géminis es una formulación propietaria y propietaria de disacárido hexaacil fosforilada (PHAD (PHAD®) que reduce el daño asociado con la inflamación al reprogramarse del sistema inmune innato para responder al estrés (trauma, infección, etc.) de manera atenuada. La revelación ha realizado múltiples estudios preclínicos que demuestran el potencial terapéutico de Géminis en las indicaciones objetivo. Revelación anunciado previamente Datos clínicos positivos de fase 1 para el tratamiento intravenoso con Géminis. El punto final de seguridad primario se cumplió en el estudio de fase 1, y los resultados demostraron la actividad farmacodinámica estadísticamente significativa como se observó a través de los cambios esperados en múltiples biomarcadores, incluida la regulación positiva de IL-10.

Géminis se está desarrollando para múltiples indicaciones, incluso como pretratamiento para prevenir o reducir la gravedad y la duración de la lesión renal aguda (programa Gemini-AKI), y como pretratamiento para prevenir o reducir la gravedad y la duración de la infección posquirúrgica (programa GEMINI-PSI). Además, Gemini puede ser un tratamiento para detener o retrasar la progresión de la enfermedad renal crónica (programa Gemini-CKD).

Acerca de Apocalipsis Biosciences, Inc.

Revelation Biosciences, Inc. es una compañía de ciencias de la vida en estadio clínico centrada en aprovechar el poder de la inmunidad entrenada para la prevención y el tratamiento de la enfermedad utilizando su formulación patentada Géminis. Revelation tiene múltiples programas en curso para evaluar Géminis, incluso como prevención de la infección posquirúrgica, como prevención de lesiones renales agudas y para el tratamiento de la enfermedad renal crónica.

Para obtener más información sobre Apocalipsis, visite www.revbiosciences.com.

Declaraciones con avance

Este comunicado de prensa contiene declaraciones prospectivas definidas en la Ley de Reforma de Litigios de Valores Privados de 1995, según enmendada. Las declaraciones prospectivas son declaraciones que no son hechos históricos. Estas declaraciones prospectivas generalmente se identifican por las palabras “anticipar”, “creer”, “esperar”, “estimar”, “plan”, “perspectiva” y “proyecto” y otras expresiones similares. Advirtemos a los inversores que las declaraciones prospectivas se basan en las expectativas de la gerencia y son solo predicciones o declaraciones de las expectativas actuales e involucran riesgos, incertidumbres y otros factores conocidos y desconocidos que pueden hacer que los resultados reales sean materialmente diferentes de los previstos por las declaraciones de prospección. Apocalipsis advierte a los lectores que no depositen una dependencia indebida de tales declaraciones de vista hacia adelante, que solo hablan a partir de la fecha en que se hicieron. Los siguientes factores, entre otros, podrían hacer que los resultados reales difieran materialmente de los descritos en estas declaraciones prospectivas: la capacidad de la revelación para cumplir con sus objetivos financieros y estratégicos, debido a, entre otras cosas, la competencia; la capacidad de la revelación para crecer y gestionar la rentabilidad del crecimiento y retener a sus empleados clave; la posibilidad de que la revelación pueda verse afectada negativamente por otros factores económicos, comerciales y/o competitivos; riesgos relacionados con el desarrollo exitoso de los candidatos de productos de Apocalipsis; la capacidad de completar con éxito los estudios clínicos planificados de sus candidatos de productos; El riesgo de que no podamos inscribir completamente nuestros estudios clínicos o la inscripción llevará más tiempo de lo esperado; riesgos relacionados con la aparición de eventos de seguridad adversos y/o preocupaciones inesperadas que pueden surgir de los datos o análisis de nuestros estudios clínicos; cambios en las leyes o regulaciones aplicables; Iniciación esperada de los estudios clínicos, el momento de los datos clínicos; El resultado de los datos clínicos, incluido si los resultados de dicho estudio son positivos o si se puede replicar; El resultado de los datos recopilados, incluido si los resultados de dichos datos y/o correlación se pueden replicar; el momento, los costos, la conducta y el resultado de nuestros otros estudios clínicos; El tratamiento anticipado de datos clínicos futuros por parte de la FDA, la EMA u otras autoridades reguladoras, incluidos si dichos datos serán suficientes para su aprobación; el éxito de futuras actividades de desarrollo para sus candidatos de productos; posibles indicaciones para las cuales se pueden desarrollar candidatos de productos; la capacidad de revelación para mantener la lista de sus valores en NASDAQ; la duración esperada sobre la cual los saldos de Apocalipsis financiarán sus operaciones; y otros riesgos e incertidumbres descritos en este documento, así como aquellos riesgos e incertidumbres discutidos de vez en cuando en otros informes y otras presentaciones públicas con la SEC por Apocalipsis.

Contactos

Mike Porter

Relaciones con inversores

Porter Levay & Rose Inc.

Correo electrónico: mike@plrinvest.com

Chester Zygmont, III

Director financiero
Apocalipsis Biosciences Inc.

Correo electrónico: czygmont@revbiosciences.com

Continue Reading

Trending