Connect with us

Noticias

Cómo OpenAI Rival Glean está utilizando la IA para transformar la búsqueda empresarial

Published

on

  • Glean recaudó recientemente más de 260 millones de dólares en una ronda de financiación Serie E con una valoración de 4.600 millones de dólares.
  • Jain fundó anteriormente Rubrik, una empresa pública de ciberseguridad, y fue ingeniero en Google.
  • Glean impulsa la búsqueda empresarial integrándose en múltiples aplicaciones de software y recuperando respuestas relevantes.

Tras la última recaudación de fondos de 6.600 millones de dólares de OpenAI, el director ejecutivo Sam Altman insistió en que los inversores evitaran invertir en cinco competidores de IA, informó Reuters. Entre ellos se encuentran Anthropic, xAI de Elon Musk, Safe Superintelligence del cofundador de OpenAI, Ilya Sutskever, y la startup de búsqueda de IA Perplexity.

El último de los cinco rivales, y quizás el menos conocido, es Glean, un asistente de búsqueda empresarial. Fundada en 2019 por el cofundador de Rubrik y ex Googler Arvind Jain, Glean ayuda a los trabajadores corporativos a encontrar información a través de las herramientas y datos de sus empresas.

En septiembre, Glean recaudó más de 260 millones de dólares en una ronda de financiación Serie E a un precio valoración de 4.600 millones de dólares. Altimeter y DST Global codirigieron la última ronda, que también incluyó a Sapphire Ventures, Sequoia, Coatue y Kleiner Perkins..

Glean ayuda a las empresas a utilizar la IA abordando una función central para los empleados: la búsqueda. “Cada empresa tiene cientos, algunas empresas tienen incluso más de mil sistemas o aplicaciones diferentes”, dijo Jain. “Con el paso de los años tendremos más y más información, más y más sistemas”. Con tanta información, es difícil para los empleados encontrar lo que buscan. Esto puede sumar más de dos horas al día, dijo Jain.

La empresa permite la búsqueda con IA integrando aplicaciones como Slack y Dropbox e impulsando la búsqueda en todo el universo de datos de su empresa.

Glean alcanzó los $50 millones de ARR durante el verano y se proyecta que termine este año con $100 millones de ARR, según una fuente familiarizada con las finanzas de la compañía. Se prevé que alcance los 250 millones de dólares a finales del próximo año, según una fuente familiarizada. La startup cuenta con Reddit, Pinterest, Sony Electronics, Confluent, Databricks e Instacart entre sus clientes.

Camino al emprendimiento

Nacido y criado en Jaipur, una ciudad india conocida por sus fuertes y palacios históricos, Jain estuvo lejos del mundo de la tecnología mientras crecía. “Tenía un aire muy rural en el sentido de que en tu ciudad todo el mundo conoce a todo el mundo y nadie se muda realmente”.

“Crecí pensando que simplemente ayudaría a mi familia con cualquier cosa que estuvieran haciendo”, dijo Jain.

Pero en la escuela secundaria, Jain comenzó a estudiar para los exámenes de ingreso a las altamente competitivas escuelas del Instituto Indio de Tecnología (IIT).

Jain se destacó en matemáticas y física, dos materias clave para los exámenes, y como resultado, obtuvo un desempeño excepcional y entró en el IIT Delhi. Entre cientos de miles de estudiantes en toda la India, “su rango en el IIT era seis”, dijo Deedy Das, quien dirigió el desarrollo de productos en Glean y ahora trabaja en Menlo Ventures.

En IIT Delhi, Jain estudió informática a instancias de uno de los consejeros de la universidad. “Me interesaban los productos farmacéuticos”, dijo. Pero “los consejeros fueron bastante contundentes y me dijeron que tenía que estudiar informática… así que es muy accidental”. Después de completar su licenciatura, Jain se mudó a los EE. UU. para obtener una maestría en ciencias de la computación en la Universidad de Washington.

Aunque la ingeniería fue accidental, el deseo de convertirse en empresario fue deliberado. Su padre era dueño de “un montón de pequeñas empresas… por lo que también era un empresario en ese sentido”, dijo Jain.

A finales de la década de 1990, Jain se unió a Microsoft y Akamai Technologies, con sede en Seattle, que desarrollaron los primeros productos de vídeo en Internet. Después de un período fundando una empresa, unió fuerzas con Riverbed Technology, donde se desempeñó como ingeniero fundador.

“Nadie me decía qué hacer” en una startup, dijo Jain. “Realmente me encariñé con toda la experiencia de la startup”.

Brillantez técnica

En 2003, Jain se unió a Google cuando todavía se encontraba en las primeras etapas de su crecimiento.

Durante los siguientes once años, Jain trabajó en Google Maps, YouTube y la Búsqueda de Google. Incluso a pesar de los múltiples esfuerzos de otros para que otros lo contrataran para iniciar una empresa, Jain se sintió inspirado durante su tiempo en Google: “Me sentí muy feliz con el tipo de oportunidades que tuve”.

Jain fue uno de los primeros ingenieros distinguidos de Google y reportaba directamente al director ejecutivo fundador de Google, Larry Page, dijo Das. Un ingeniero distinguido se encuentra en el nivel nueve de los once niveles de Google que se aplican a los ingenieros.

Fue solo después de que su compañero del IIT Bipul Sinha se le acercara con una idea, que terminó convirtiéndose en Rubrik, que Jain decidió dar el salto para iniciar una empresa. Rubrik, una empresa de ciberseguridad centrada en la protección y copia de seguridad de datos, salió a bolsa en abril y está valorada en más de 7 mil millones de dólares.

“Crecimos rápidamente. Rompimos muchos récords en términos de rapidez con que crecieron nuestros ingresos”, dijo Jain. Pero con ese crecimiento vinieron grietas en la ejecución del equipo, dijo Jain. Había desafíos para la productividad: a medida que una empresa crece, las cosas inevitablemente se desaceleran, dijo.

Según una encuesta anual realizada a los empleados de Rubrik, un área clave de mejora era si los empleados tenían acceso a la información adecuada para realizar su trabajo. Rubrik tenía cientos de aplicaciones de software como servicio basadas en la nube. “El conocimiento de nuestra empresa estaba algo fragmentado en todos estos sistemas”, afirmó.

“Nuestra gente se queja en voz alta de que no puedo encontrar nada en esta empresa. No sé dónde ir a buscar cosas”, dijo Jain.

Después de darse cuenta de que no había ningún producto en el mercado que resolviera este problema, Jain decidió construirlo él mismo. Su visión era un motor de búsqueda que conectara los datos de una empresa a través de diferentes aplicaciones y permitiera que los empleados pudieran buscarlos de forma centralizada.

“Tuvimos la oportunidad de crear Google para las personas en su vida laboral”, y con eso nació Glean.

La IA del trabajo de Glean

Jain incubó Glean desde la oficina de Kleiner Perkins en 2019, dijo Mamoon Hamid, miembro de la junta directiva de Glean y socio de Kleiner. Jain se asoció con TR Vishwanath, quien se desempeña como CTO, Tony Gentilcore, quien dirige la ingeniería de productos, y Piyush Prahladka, quien dirigió la búsqueda y ya no está en la empresa.

“Estuvieron en nuestro sótano durante unos buenos 18 meses… Pude ver cómo la empresa realmente escalaba desde Arvind”, dijo Hamid.

Al principio, Jain pasaba los domingos produciendo código, dijo Das. “Está tan feliz de ensuciarse… cuando leí el ensayo de Paul Graham sobre el modo fundador, no podía pensar en nadie más que en Arvind”.

El enfoque inicial de Glean fue la búsqueda. “Lo más básico que haremos con Glean es que usted haga la pregunta y le devolverá la información correcta”, dijo Jain. La búsqueda de empresas es “una tarea difícil y una construcción difícil”, dijo Hamid. “Es aparentemente fácil, pero en realidad es bastante difícil crear todos los diferentes conectores para diferentes productos SaaS y luego crear la búsqueda misma”.

Lograr esto de una manera segura y con altos permisos presenta un desafío de ingeniería particularmente difícil, dijo Rajeev Dham de Sapphire Ventures. El producto de Glean, por ejemplo, impide que los usuarios accedan a información que no deben ver, como informes financieros confidenciales o informes de recursos humanos.

Además de la búsqueda empresarial, Glean también tiene un asistente de inteligencia artificial que genera respuestas basadas en los resultados de la búsqueda, como resumir los mensajes de Slack del día o sintetizar varios documentos.

Los modelos de lenguajes grandes (LLM) ayudaron a impulsar aún más las capacidades de Glean, añadió Hamid. “Tenemos este enorme viento de cola de LLM que ahora podemos infundir en el producto y convertirlo realmente no solo en búsqueda, sino también en un asistente de IA laboral”. Con los LLM, Glean también puede generar respuestas a las consultas de los empleados, incluidos documentos completamente nuevos.

A pesar de que Altman insta a los inversores a evitar respaldar a sus competidores, Jain sigue siendo optimista. “Siempre es halagador ver ese reconocimiento”, dijo Jain. “La razón por la que probablemente estemos en esa lista es porque construimos algo importante, algo poderoso, algo que otras personas también aspiran a construir”.

En la carrera por la IA empresarial, también ayuda que Jain sea intensamente competitivo. “Incluso cuando juegas tenis de mesa, ping pong o tenis, él luchará por ese punto”, dijo Das. “A él no le importa quién eres. Podrías ser un recién graduado; a él no le importa. Va a luchar por el punto”.

“Creo firmemente que las empresas ganan o pierden por sí mismas, no por la competencia”, afirmó Jain.

Continue Reading

Noticias

¿Puede ChatGPT pasar la prueba de Turing? Lo que dice la investigación.

Published

on

Los chatbots de inteligencia artificiales como ChatGPT se están volviendo mucho más inteligentes, mucho más naturales y mucho más … como humanos. Tiene sentido: los humanos son los que crean los modelos de idiomas grandes que sustentan los sistemas de chatbots de IA, después de todo. Pero a medida que estas herramientas mejoran en “razonamiento” e imitan el discurso humano, ¿son lo suficientemente inteligentes como para aprobar la prueba de Turing?

Durante décadas, la prueba de Turing se ha mantenido como un punto de referencia clave en la inteligencia de máquinas. Ahora, los investigadores en realidad están poniendo a prueba LLM como ChatGPT. Si ChatGPT puede pasar, el logro sería un hito importante en el desarrollo de IA.

Entonces, ¿puede ChatGPT pasar la prueba de Turing? Según algunos investigadores, sí. Sin embargo, los resultados no son completamente definitivos. La prueba de Turing no es un simple pase/falla, lo que significa que los resultados no son realmente en blanco y negro. Además, incluso si ChatGPT podría pasar la prueba de Turing, eso puede no decirnos realmente cuán “humano” es realmente un LLM.

Vamos a desglosarlo.

¿Cuál es la prueba de Turing?

El concepto de la prueba de Turing es realmente bastante simple.

La prueba fue originalmente propuesta por el matemático británico Alan Turing, el padre de la informática moderna y un héroe para los nerds de todo el mundo. En 1949 o 1950, propuso el juego de imitación, una prueba de inteligencia de máquinas que desde entonces ha sido nombrada por él. La prueba de Turing implica que un juez humano tenga una conversación con un humano y una máquina sin saber cuál es cuál (o quién es quién, si crees en AGI). Si el juez no puede decir cuál es la máquina y cuál es la humana, la máquina pasa la prueba de Turing. En un contexto de investigación, la prueba se realiza muchas veces con múltiples jueces.

Por supuesto, la prueba no puede determinar necesariamente si un modelo de lenguaje grande es realmente tan inteligente como un humano (o más inteligente), solo si es capaz de pasar por un humano.

¿Los LLM realmente piensan como nosotros?

Los modelos de lenguaje grande, por supuesto, no tienen cerebro, conciencia o modelo mundial. No son conscientes de su propia existencia. También carecen de opiniones o creencias verdaderas.

En cambio, los modelos de idiomas grandes se capacitan en conjuntos de datos masivos de información: libros, artículos de Internet, documentos, transcripciones. Cuando un usuario ingresa el texto, el modelo AI usa su “razonamiento” para determinar el significado y la intención más probables de la entrada. Luego, el modelo genera una respuesta.

En el nivel más básico, los LLM son motores de predicción de palabras. Utilizando sus vastas datos de entrenamiento, calculan las probabilidades para el primer “token” (generalmente una sola palabra) de la respuesta utilizando su vocabulario. Repiten este proceso hasta que se genera una respuesta completa. Esa es una simplificación excesiva, por supuesto, pero mantengámoslo simple: las LLM generan respuestas a la entrada en función de la probabilidad y las estadísticas. Entonces, la respuesta de un LLM se basa en las matemáticas, no en una comprensión real del mundo.

Velocidad de luz mashable

Entonces, no, LLM no en realidad pensar en cualquier sentido de la palabra.

¿Qué dicen los estudios sobre ChatGPT y la prueba de Turing?

Joseph Maldonado / Mashable Composite por Rene Ramos
Crédito: Mashable

Ha habido bastantes estudios para determinar si ChatGPT ha aprobado la prueba de Turing, y muchos de ellos han tenido hallazgos positivos. Es por eso que algunos informáticos argumentan que, sí, modelos de idiomas grandes como GPT-4 y GPT-4.5 ahora pueden pasar la famosa prueba de Turing.

La mayoría de las pruebas se centran en el modelo GPT-4 de Openai, el que usa la mayoría de los usuarios de ChatGPT. Usando ese modelo, un Estudio de UC San Diego descubrieron que en muchos casos, los jueces humanos no pudieron distinguir GPT-4 de un humano. En el estudio, se consideró que GPT-4 era un humano el 54% del tiempo. Sin embargo, esto aún se quedó atrás de los humanos reales, que se consideró humano el 67% del tiempo.

Luego, se lanzó GPT-4.5, y los investigadores de UC San Diego Realizó el estudio nuevamente. Esta vez, el modelo de lenguaje grande se identificó como humano el 73% del tiempo, superando a los humanos reales. La prueba también encontró que el Llama-3.1-405b de Meta Meta pudo aprobar la prueba.

Otros estudios fuera de UC San Diego también han dado calificaciones de aprobación de GPT. Un 2024 Estudio de la Universidad de Reading de GPT-4 El modelo había creado respuestas para evaluaciones para llevar a casa para cursos de pregrado. Los alumnos de prueba no se les informó sobre el experimento, y solo marcaron una de las 33 entradas. ChatGPT recibió calificaciones anteriores al promedio con las otras 32 entradas.

Entonces, ¿son estos estudios? definitivo? No exactamente. Algunos críticos (y hay muchos) dicen que estos estudios de investigación no son tan impresionantes como parecen. Es por eso que no estamos listos para decir definitivamente que ChatGPT pasa la prueba de Turing.

Podemos decir que si bien los LLM de generación anterior como GPT-4 a veces pasan la prueba de Turing, los grados de aprobación se están volviendo más comunes a medida que los LLM se avanzan más. Y a medida que salen modelos de vanguardia como GPT-4.5, nos dirigimos rápidamente hacia modelos que pueden pasar fácilmente la prueba de Turing cada vez.

Operai en sí ciertamente imagina un mundo en el que es imposible distinguir a los humanos de la IA. Es por eso que el CEO de Operai, Sam Altman, ha invertido en un proyecto de verificación humana con una máquina de escaneo de globo ocular llamada Orbe.

¿Qué dice Chatgpt en sí mismo?

Decidimos preguntarle a ChatGPT si podía pasar la prueba de Turing, y nos dijo que sí, con las mismas advertencias que ya hemos discutido. Cuando planteamos la pregunta, “¿Puede Chatgpt pasar la prueba de Turing?” al chatbot Ai (usando el modelo 4o), nos dijo: “Chatgpt poder Pase la prueba de Turing en algunos escenarios, pero no de manera confiable o universal. “El chatbot concluyó:” Podría pasar la prueba de Turing con un usuario promedio en condiciones casuales, pero un interrogador determinado y reflexivo casi siempre podría desenmascararla “.

Una captura de pantalla de ChatGPT que muestra la respuesta al mensaje 'puede chatgpt pasar la prueba turing'

Imagen generada por IA.
Crédito: OpenAI

Las limitaciones de la prueba de Turing

Algunos científicos informáticos ahora creen que la prueba de Turing está desactualizada, y que no es tan útil para juzgar modelos de idiomas grandes. Gary Marcus, psicólogo estadounidense, científico cognitivo, autor y pronóstico popular de IA, lo resumió mejor en una publicación de blog reciente, donde escribió: “Como yo (y muchos otros) he dicho por añosLa prueba de Turing es una prueba de credulidad humana, no una prueba de inteligencia “.

También vale la pena tener en cuenta que la prueba de Turing se trata más de la percepción de inteligencia en lugar de actual inteligencia. Esa es una distinción importante. Un modelo como ChatGPT 4O podría pasar simplemente imitando el discurso humano. No solo eso, sino si un modelo de idioma grande pasa o no la prueba variará según el tema y el probador. ChatGPT podría simular fácilmente una pequeña charla, pero podría tener dificultades con las conversaciones que requieren una verdadera inteligencia emocional. No solo eso, sino que los sistemas de IA modernos se usan para mucho más que chatear, especialmente cuando nos dirigimos hacia un mundo de IA agente.

Nada de eso es decir que la prueba de Turing es irrelevante. Es un punto de referencia histórico ordenado, y ciertamente es interesante que los modelos de idiomas grandes puedan pasarlo. Pero la prueba de Turing no es el punto de referencia estándar de oro de la inteligencia de la máquina. ¿Cómo sería un mejor punto de referencia? Esa es otra lata de gusanos que tendremos que ahorrar para otra historia.


Divulgación: Ziff Davis, empresa matriz de Mashable, presentó en abril una demanda contra OpenAI, alegando que infringió los derechos de autor de Ziff Davis en la capacitación y la operación de sus sistemas de IA.

Temas
Inteligencia artificial

Continue Reading

Noticias

Openai, Microsoft le dice al Senado ‘Nadie puede ganar AI’

Published

on

Únase a nuestros boletines diarios y semanales para obtener las últimas actualizaciones y contenido exclusivo sobre la cobertura de IA líder de la industria. Obtenga más información


La administración Trump retrocedió una orden ejecutiva del ex presidente Joe Biden que creó reglas sobre el desarrollo y el despliegue de IA. Desde entonces, el gobierno ha retrocedido de la regulación de la tecnología.

En una audiencia de más de tres horas en el Comité de Comercio, Ciencia y Transporte del Senado, ejecutivos como el CEO de Operai, Sam Altman, la CEO de AMD, Lisa Su, la cofundadora de CoreWeave y CEO Michael Intrator y Vicepresidente de Microsoft y Presidente Brad Smith instó a los políticos para aliviar el proceso de construcción de infraestructura en torno al desarrollo de AI.

Los ejecutivos dijeron a los formuladores de políticas que la aceleración de los permisos podría hacer que la construcción de nuevos centros de datos, las centros de energía para energizar los centros de datos e incluso los fabricantes de chips cruciales para apuntalar la pila tecnológica de IA y mantener al país competitivo contra China. También hablaron sobre la necesidad de trabajadores más calificados como electricistas, aliviando la inmigración del talento del software y alentando la “difusión de IA” o la adopción de modelos de IA generativos en los Estados Unidos y en todo el mundo.

Altman, recién visitando el proyecto Stargate de $ 500 mil millones de la compañía en Texas, dijo a los senadores que Estados Unidos está liderando el cargo en IA, pero necesita más infraestructura como las centrales eléctricas para alimentar su próxima fase.

“Creo que la próxima década será sobre abundante inteligencia y energía abundante. Asegurarse de que Estados Unidos lidere ambos, que podamos introducir estas revoluciones duales que cambiarán el mundo que vivimos de manera increíblemente positiva es crítico”, dijo Altman.

La audiencia se produjo cuando la administración Trump está determinando cuánta influencia tendrá el gobierno en el espacio de IA. El senador Ted Cruz de Texas, presidente del comité, dijo que propuso crear una caja de arena reguladora de IA.

Smith de Microsoft dijo en su testimonio escrito que las compañías de IA estadounidenses necesitan continuar innovando porque “es una carrera que ninguna compañía o país puede ganar por sí sola”.

Apoyando la pila de tecnología AI

Smith de Microsoft presentó la pila de tecnología AI, que según él muestra cuán importante es cada segmento del sector a la innovación.

“Todos estamos en esto juntos. Si Estados Unidos va a tener éxito en liderar el mundo en la IA, requiere infraestructura, requiere éxito a nivel de plataforma, requiere a las personas que crean aplicaciones”, dijo Smith.

Agregó: “La innovación irá más rápido con más infraestructura, permisos más rápidos y más electricistas”.

AMD reiteró que “mantener nuestro liderazgo en realidad requiere excelencia en cada capa de la pila”.

“Creo que los ecosistemas abiertos son realmente una piedra angular del liderazgo estadounidense, y eso permite que las ideas provengan de todas partes y cada parte del sector de la innovación”, dijo Su. “Está reduciendo las barreras para la entrada y el fortalecimiento de la seguridad, así como la creación de un mercado competitivo para ideas”.

Con los modelos de IA que necesitan más y más GPU para el entrenamiento, la necesidad de mejorar la producción de chips, construir más centros de datos y encontrar formas de alimentarlos se ha vuelto aún más crítico. La Ley de Chips y Ciencias, una ley de la era de Biden, estaba destinada a impulsar la producción de semiconductores en los Estados Unidos, pero hacer los chips necesarios para alimentar los modelos más poderosos del mundo a nivel local está demostrando ser lento y costoso.

En los últimos meses, compañías como Cerebras han anunciado planes para construir más centros de datos para ayudar a procesar la capacitación e inferencia de modelos.

Un descanso de las políticas actuales

La mayoría del Senado de los formuladores de políticas republicanas dejó en claro durante la audiencia que la administración Trump preferiría no regular el desarrollo de la IA, preferir un enfoque más impulsado por el mercado. Esta administración también ha presionado para un crecimiento más centrado en los Estados Unidos, exigiendo que las empresas usen productos estadounidenses y creen más empleos estadounidenses.

Sin embargo, los ejecutivos señalaron que para que la IA estadounidense siga siendo competitiva, las empresas necesitan acceso al talento internacional y, lo que es más importante, políticas de exportación claras para que los modelos fabricados en los EE. UU. Puedan ser atractivos para otros países.

“Necesitamos una adopción más rápida, a lo que las personas se refieren como difusión de IA. La capacidad de hacer que la IA trabaje en cada parte de la economía estadounidense para impulsar la productividad, para impulsar el crecimiento económico, permitir a las personas innovar en su trabajo”, dijo Smith. “Si Estados Unidos dirigirá el mundo, necesitamos conectarnos con el mundo. Nuestro liderazgo global se basa en nuestra capacidad para servir al mundo con el enfoque correcto y en nuestra capacidad para mantener la confianza del resto del mundo”.

Agregó que eliminar los límites cuantitativos para los países de nivel dos es esencial porque estas políticas “enviaron un mensaje a 120 naciones que no podían contar con nosotros para proporcionar la IA que desean y necesitan”.

Altman señaló: “Habrá excelentes chips y modelos entrenados en todo el mundo”, reiterando la posición de liderazgo de las compañías estadounidenses en el espacio.

Hay algunas buenas noticias en el área de la difusión de IA porque, si bien la audiencia estaba en curso, el Departamento de Comercio anunció que estaba modificando las reglas de la administración Biden que limitó qué países podrían recibir chips hechos por compañías estadounidenses. La regla entró en vigencia el 15 de mayo.

Si bien los ejecutivos dijeron que los estándares gubernamentales serían útiles, denunciaron cualquier movimiento para ver lanzamientos del modelo de “aprobación previa”, similares a la UE.

Ecosistema abierto

La IA generativa ocupa un espacio liminal en la regulación tecnológica. Por un lado, la falta comparativa de reglas ha permitido a empresas como OpenAI desarrollar tecnología sin mucho miedo a las repercusiones. Por otro lado, la IA, como Internet y las redes sociales antes, toca la vida de las personas profesionales y personalmente.

De alguna manera, los ejecutivos se alejaron de cómo la administración Trump ha posicionado el crecimiento de los Estados Unidos. La audiencia mostró que si bien las compañías de IA desean el apoyo del gobierno para acelerar el proceso de expansión de la infraestructura de IA, también deben estar más abiertos al resto del mundo. Requiere talento del extranjero. Necesita vender productos y plataformas a otros países.

El comentario de las redes sociales varió, y algunos señalaron que los ejecutivos, en particular Altman, tenían opiniones diferentes sobre la regulación antes.

Otros señalaron que otros países podrían ver dónde han fallado sus propias políticas de IA.

Continue Reading

Trending