Connect with us

Noticias

Morris: La verdad detrás de chatgpt

Published

on

En el término de primavera de mi primer año de universidad, finalmente cedí a usar plataformas de inteligencia artificial para ayudarme a comprender algunos de mis cursos más difíciles. Nunca lo usé con éxito hasta que comencé a tomar clases de ciencias aquí en la Universidad de Oregon. Pero, tan pronto como estaba atrapado tratando de descifrar una de mis tareas complicadas para mi conferencia de antropología, pedí una conversación para explicar los criterios en términos simples.

Desde entonces, he usado plataformas AI para verificar algunas de mis tareas y ensayos, resumir las instrucciones para las tareas, ayudarme a crear declaraciones de tesis para ensayos y generar ideas para mis artículos argumentativos. Para mí, ha llegado a un punto en el que lo uso al menos una vez al día. Hoy en día, rara vez paso y verifíquelo gramatical mi trabajo yo mismo.

Creo que hay muchos beneficios para ChatGPT, Grammarly, Gemini y otras plataformas de IA, especialmente en un entorno académico. AI a menudo se conoce como un “Enfoque moderno para el aprendizaje” Permitiéndonos acceder a una amplia gama de herramientas para ciertos aspectos de nuestro trabajo de clase.

No me refiero a hacer trampa. Sin embargo, sé que yo y otros estudiantes de UO tenemos una tendencia a apoyarme demasiado en la IA para obtener ayuda, y hay negativos en eso. Un estudio realizado por el Dr. Mohammed Ahmed, que trabajó como unProfesor Asistente de Gestión de Ingeniería en la Universidad Eastern Michigan, demostró que NOt SOLO está reduciendo nuestro pensamiento crítico Las habilidades, también conocidas como descarga cognitiva, pero la IA de acceso abierto no siempre es confiable.

Leanne Fan, periodista del Nexus informó los hallazgos del Dr. Ahmed. “Los datos de la encuesta de 285 estudiantes encontraron que el 68.9% de la pereza y el 27.7% de la pérdida de habilidades para tomar decisiones fueron el resultado del uso de inteligencia artificial”.

Jessica Talisman, una arquitecta de información senior para Adobe, trabaja principalmente con plataformas de IA. Ella ha producido varios podcasts relacionados con el tema de la IA, como “El Digest de AI” así como “Diálogos de datos” Un podcast sobre navegar el panorama de datos y “La democracia de los datos, “Un podcast sobre neurociencia educativa.

Le pregunté a Talismán cuáles pensaba que las mayores preocupaciones eran para los estudiantes de UO que usaban plataformas de IA y de qué deberían ser cautelosos.

“Es un modelo de lenguaje grande, (o) lo que se conoce como LLM. Es un modelo estadístico, no un modelo numérico. Es notoriamente Terrible con los númerosLa seguridad, los datos, el análisis de datos y de manera realista es solo un estudiante de segundo año para el nivel junior cuando se trata de la codificación de datos ”, dijo Talisman.

“La IA como el chatgpt tiene mucha desinformación, información errónea y sesgo. Tenga cuidado con la verificación de hechos; Se sabe que tiene alucinaciones. En otras palabras, puede verse como la agencia creativa de AI, lo que significa que puede ser muy creativo y hacer cosas que no son objetivas “, dijo Talisman.

Talisman también habló sobre el uso excesivo de los estudiantes de ChatGPT y otras plataformas relacionadas con la IA, lo que puede reducir su capacidad para aprender.

“Hay muchas publicaciones académicas académicas que demuestran que hay una amplia gama de descarga cognitiva. El pensamiento crítico es uno de los principales objetivos de la educación. Es la misión de la universidad. Si el pensamiento crítico está obstruido, entonces su cerebro no desarrolla conocimientos, maneja las tareas y sintetiza el conocimiento ”, dijo Talisman.

Según Talisman, ChatGPT es una plataforma de IA de acceso abierto rentable, que es un factor que contribuye a por qué no es tan confiable. Además, tiene sus problemas de privacidad, como la recopilación de datos confidenciales, la recopilación de datos sin consentimiento, el uso de datos sin permiso, vigilancia y sesgo sin control, exfiltración de datos y fuga de datos.

Me dio curiosidad sobre cómo se sienten los profesores de UO sobre ChatGPT y su uso en el aula. Le pregunté al profesor Mark Blaine, quien trabaja en el departamento de SOJC enseñando clases de periodismo y es conocido por su trabajo documental, sobre IA. Dijo que cree que la IA es un atributo académico positivo y tiene algunas caídas importantes.

Blaine discutió la dependencia estudiantil de las herramientas de IA y las formas en que esto afecta la educación.

“Si te apoyas demasiado cuando no estás ejerciendo los músculos que se supone que debes usar mientras estás aquí, no puedes esperar convertirte en un mejor escritor. Puede darle las respuestas correctas, pero eso no es lo que estamos buscando aquí ”, dijo Blaine.

Blaine habló sobre los problemas que los estudiantes pueden enfrentar cuando buscan trabajo en el futuro, especialmente con la construcción de cartera. “Va a ser juzgado por lo que produce. Si esa producción sufre del uso de IA, lo hará menos competitivo, no más competitivo “.

Blaine también pensó en cómo ha visto a los estudiantes usar plataformas de IA, especialmente cuando se trataba de escribir documentos para sus clases.

“Algunos fueron buenos, algunos fueron un dolor de leer, pero cuando tienes que entregar un informe muy largo y seco o algún tipo de material técnico, te lleva a una respuesta muy rápido. En otros casos, eso no pasa la prueba de olfateo ”, dijo Blaine.

Personalmente, he visto a los estudiantes que usan ChatGPT y otras plataformas de IA en clase para ayudar a comprender las tareas, ayudar con la tarea, pedirle a la IA que resume los artículos, etc. No estoy ‘disrinando’ a estas personas porque entiendo cuán difíciles y estresantes pueden ser las clases. Cuando se trata de mi experiencia personal con estas plataformas de inteligencia artificial, noté que una vez que comencé a usar IA para asistencia académica, comenzó a ser difícil no usarlo para asistencia básica.

El estudiante de segundo año de UO Campbell Schlecht habló sobre su uso de herramientas de IA.

Le pregunté a Campbell para qué usa ChatGPT u otras plataformas AI. “El área principal de mi vida que no yo y probablemente nunca usaría es para mi trabajo actual como asistente de promociones”, dijo Schlecht.

“Probablemente uso chatgpt en demasiadas áreas en mi vida. Si me siento atrapado en el trabajo escolar o en necesidad de inspiración, le pregunto rápidamente a ChatGPT, que creo que siempre ayuda a que las ruedas creativas se vuelvan para mí. Definitivamente siento que la mayoría de los estudiantes lo usan en exceso, y eso podría ser perjudicial para el aprendizaje, pero al mismo tiempo, creo que es inteligente usar los recursos que están a nuestra disposición “, dijo Schlecht.

Si bien hay muchos beneficios para ChatGPT y otras plataformas de IA para estudiantes en términos de suministro de recursos, parece que el uso de la IA de la IA no se gestiona correctamente. Aun así, sería difícil de manejar.

Mi objetivo es reducir la cantidad de asistencia que confío en la IA para cuando se trata de comprender una tarea y ayudarme a encontrar una tesis, y conozco a muchos otros estudiantes demasiado por eso también por muchas razones diferentes. Si bien hay muchos positivos de redes sobre estas plataformas, también hay muchos pecados de red que pueden afectarlo personalmente y hacer que las plataformas no sean confiables.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Acabo de probar Manus vs Chatgpt con 5 indicaciones: aquí está el ganador

Published

on

Desde su lanzamiento la semana pasada, el agente de IA Manus ha ganado rápidamente tracción en línea. Desarrollado por la startup mariposa con sede en Wuhan, la comunidad de IA se ha dado cuenta, con más de 2 millones de personas en la lista de espera.

Al compararlo con Deepseek, Manus se distingue a sí mismo como lo que dice ser el primer agente general de IA del mundo, lo que lo distingue de los chatbots de IA tradicionales. En lugar de confiar en un solo modelo de lenguaje grande, como ChatGPT, Grok, Deepseek y otros sistemas de IA conversacionales, Manus opera con múltiples modelos de IA, incluidos el soneto Claude 3.5 de Anthrope y las versiones ajustadas de Alibaba’s Open-Source Qwen.

Continue Reading

Noticias

Operai pide a Trump que elimine las restricciones a la industria de la IA

Published

on

Operai ha presentado una larga propuesta al gobierno de los Estados Unidos, con el objetivo de influir en su próximo plan de acción de IA, un informe de estrategia que muchos creen que guiará la política del presidente Donald Trump sobre la tecnología de inteligencia artificial.

La propuesta de la compañía de IA más reconocible de Estados Unidos es previsiblemente controvertida, y requiere que el gobierno de los Estados Unidos enfatice la velocidad del desarrollo sobre el escrutinio regulatorio, al tiempo que advierte los peligros que plantean las empresas de IA chinas para el país.

Trump pidió que el Plan de Acción de AI fuera redactado por la Oficina de Política de Ciencia y Tecnología y se sometió a él para julio poco después de asumir su segunda residencia en la Casa Blanca. Eso sucedió en enero, cuando expulsó una orden ejecutiva relacionada con la IA que fue firmada por su predecesor Joe Biden en octubre de 2023, reemplazándola con la suya, declarando que “es la política de los Estados Unidos para mantener y mejorar el dominio global de IA de Estados Unidos”.

Operai ha perdido poco tiempo al tratar de influir en las recomendaciones en ese plan, y en su propuesta dejó en claro sus sentimientos sobre el nivel actual de regulación en la industria de la IA. Pidió que los desarrolladores de IA recibieran “la libertad de innovar en el interés nacional”, y abogó por una “asociación voluntaria entre el gobierno federal y el sector privado”, en lugar de “leyes estatales demasiado pesadas”.

Argumenta que el gobierno federal debería poder trabajar con compañías de IA de manera “puramente voluntaria y opcional”, diciendo que esto ayudará a promover la innovación y la adopción de la tecnología. Además, pidió a los EE. UU. Que cree una “estrategia de control de exportación” que cubra los sistemas de IA fabricados en Estados Unidos, que promoverán la adopción global de su tecnología de IA de cosecha propia.

Impulso por la adopción del gobierno

La compañía argumenta además en sus recomendaciones que el gobierno otorga a las agencias federales una mayor libertad para “probar y experimentar” las tecnologías de IA que utilizan “datos reales”, y también solicitó a Trump que otorgue una exención temporal que negaría la necesidad de que los proveedores de IA estén certificados bajo el programa federal de gestión de riesgos y autorización. Pidió a Trump que “modernice” el proceso que las compañías de IA deben pasar para ser aprobadas para el uso del gobierno federal, pidiendo la creación de una “ruta más rápida basada en criterios para la aprobación de las herramientas de IA”.

Openai argumenta que sus recomendaciones harán posible que las agencias del gobierno federal utilicen los nuevos sistemas de IA hasta 12 meses más rápido de lo que es posible actualmente. Sin embargo, algunos expertos de la industria han expresado su preocupación de que la adopción tan rápida de la IA por parte del gobierno podría crear problemas de seguridad y privacidad.

Al presionar más, OpenAi también le dijo al gobierno de los Estados Unidos que debería asociarse más estrechamente con las empresas del sector privado para construir sistemas de IA para uso de seguridad nacional. Explicó que el gobierno podría beneficiarse de tener sus propios modelos de IA que están capacitados en conjuntos de datos clasificados, ya que estos podrían “ajustados para ser excepcionales en las tareas de seguridad nacional”.

Operai tiene un gran interés en abrir el sector del gobierno federal para productos y servicios de IA, después de haber lanzado una versión especializada de ChatGPT, llamada ChatGPT Gov, en enero. Está diseñado para ser dirigido por agencias gubernamentales en sus propios entornos informáticos seguros, donde tienen más control sobre la seguridad y la privacidad.

‘Libertad para aprender’

Además de promover el uso gubernamental de la IA, Operai también quiere que el gobierno de los Estados Unidos facilite su propia vida al implementar una “estrategia de derechos de autor que promueva la libertad de aprender”. Pidió a Trump que desarrollara regulaciones que preservarán la capacidad de los modelos de IA estadounidenses para aprender de los materiales con derechos de autor.

“Estados Unidos tiene tantas nuevas empresas de IA, atrae tanta inversión y ha hecho tantos avances de investigación en gran medida porque la doctrina de uso justo promueve el desarrollo de IA”, declaró la compañía.

Es una solicitud controvertida, porque la compañía actualmente está luchando contra múltiples organizaciones de noticias, músicos y autores sobre reclamos de infracción de derechos de autor. El ChatGPT original que se lanzó a fines de 2022 y los modelos más poderosos que se han lanzado desde entonces están en gran medida entrenados en Internet público, que es la principal fuente de su conocimiento.

Sin embargo, los críticos de la compañía dicen que básicamente está plagiando contenido de los sitios web de noticias, de los cuales muchos están paseados por pagos. Operai ha sido golpeado con demandas por el New York Times, el Chicago Tribune, el New York Daily News y el Centro de Informes de Investigación, la sala de redacción sin fines de lucro más antigua del país. Numerosos artistas y autores también han emprendido acciones legales contra la empresa.

Si no puedes vencerlos, ¿prohibirlos?

Las recomendaciones de Openai también apuntaron a algunos de los rivales de la compañía, en particular Deepseek Ltd., el laboratorio de IA chino que desarrolló el modelo Deepseek R-1 con una fracción del costo de cualquier cosa que Operai haya desarrollado.

La compañía describió a Deepseek como “subsidiado por el estado” y “controlado por el estado”, y le pidió al gobierno que considerara prohibir sus modelos y los de otras empresas chinas de IA.

En la propuesta, Openai afirmó que el modelo R1 de Deepseek es “inseguro”, porque la ley china requiere que cumpla con ciertas demandas con respecto a los datos del usuario. Al prohibir el uso de modelos de China y otros países de “nivel 1”, Estados Unidos podría minimizar el “riesgo de robo de IP” y otros peligros, dijo.

“Mientras Estados Unidos mantiene una ventaja en la IA hoy, Deepseek muestra que nuestro liderazgo no es ancho y está reduciendo”, dijo Openii.

Foto: TechCrunch/Flickr

Su voto de apoyo es importante para nosotros y nos ayuda a mantener el contenido libre.

Un clic a continuación admite nuestra misión de proporcionar contenido gratuito, profundo y relevante.

Únete a nuestra comunidad en YouTube

Únase a la comunidad que incluye a más de 15,000 expertos en #Cubealumni, incluido el CEO de Amazon.com, Andy Jassy, ​​el fundador y CEO de Dell Technologies, Michael Dell, el CEO de Intel, Pat Gelsinger y muchos más luminarios y expertos.

“TheCube es un socio importante para la industria. Ustedes realmente son parte de nuestros eventos y realmente les apreciamos que vengan y sé que la gente aprecia el contenido que crean también ” – Andy Jassy

GRACIAS

Continue Reading

Noticias

Google DeepMind tiene como objetivo útil Robots AI útiles

Published

on

Google Deepmind ha introducido Gemini Robotics, nuevos modelos de IA diseñados para traer razonamiento avanzado y capacidades físicas a los robots.

Construido sobre la base de Gemini 2.0, los nuevos modelos representan un salto hacia la creación de robots que pueden entender e interactuar con el mundo físico de manera que anteriormente se limitaron al ámbito digital.

Los nuevos modelos, Robótica de Géminis y Géminis robótica (Razonamiento encarnado), tiene como objetivo permitir a los robots realizar una gama más amplia de tareas del mundo real combinando la visión avanzada, el lenguaje y las capacidades de acción.

https://www.youtube.com/watch?v=4mvgnmpp3c0

Gemini Robotics tiene como objetivo cerrar la brecha física digital

Hasta ahora, los modelos de IA como Gemini se han destacado en el razonamiento multimodal en texto, imágenes, audio y video. Sin embargo, sus habilidades se han limitado en gran medida a las aplicaciones digitales.

Para que los modelos de IA realmente útiles en la vida cotidiana, deben poseer “razonamiento encarnado” (es decir, la capacidad de comprender y reaccionar ante el mundo físico, al igual que los humanos).

Gemini Robotics aborda este desafío al introducir acciones físicas Como una nueva modalidad de salida, permitiendo que el modelo controle directamente los robots. Mientras tanto, Gemini Robotics-ER mejora la comprensión espacial, lo que permite a los robotistas para integrar las capacidades de razonamiento del modelo en sus propios sistemas.

Estos modelos representan un paso fundamental hacia una nueva generación de robots útiles. Al combinar la IA avanzada con la acción física, Google Deepmind está desbloqueando el potencial de los robots para ayudar en una variedad de configuraciones del mundo real, desde hogares hasta lugares de trabajo.

Características clave de Géminis Robótica

Gemini Robotics está diseñado con tres cualidades centrales en mente: generalidad, interactividady destreza. Estos atributos aseguran que el modelo pueda adaptarse a diversas situaciones, responder a entornos dinámicos y realizar tareas complejas con precisión.

Generalidad

Gemini Robotics aprovecha las capacidades mundiales de Enderstanding de Gemini 2.0 para generalizar en situaciones novedosas. Esto significa que el modelo puede abordar las tareas que nunca antes había encontrado, adaptarse a nuevos objetos y operar en entornos desconocidos. Según Google Deepmind, Gemini Robotics duplica más que el rendimiento de los modelos de acción de la visión de última generación en los puntos de referencia de generalización.

https://www.youtube.com/watch?v=SY20X_TYWPQ

Interactividad

Para funcionar de manera efectiva en el mundo real, los robots deben interactuar sin problemas con las personas y sus alrededores. Gemini Robotics sobresale en esta área, gracias a sus capacidades avanzadas de comprensión del idioma. El modelo puede interpretar y responder a las instrucciones del lenguaje natural, monitorear su entorno para los cambios y ajustar sus acciones en consecuencia.

Por ejemplo, si un objeto se desliza del alcance de un robot o es movido por una persona, Gemini Robotics puede replantar rápidamente y continuar la tarea. Este nivel de adaptabilidad es crucial para las aplicaciones del mundo real, donde la imprevisibilidad es la norma.

https://www.youtube.com/watch?v=hyqs2oaif-i

Destreza

Muchas tareas cotidianas requieren habilidades motoras finas que tradicionalmente han sido desafiantes para los robots. Gemini Robotics, sin embargo, demuestra una destreza notable, lo que permite realizar tareas complejas y de varios pasos, como el origami plegable o empacar un refrigerio en una bolsa Ziploc.

https://www.youtube.com/watch?v=x-exzz-ciuw

Realizaciones múltiples para diversas aplicaciones

Una de las características destacadas de Gemini Robotics es su capacidad para adaptarse a diferentes tipos de robots. Si bien el modelo se capacitó principalmente utilizando datos de la plataforma robótica bi-brazo Aloha 2, también se ha probado con éxito en otras plataformas, incluidas las armas Franka utilizadas en los laboratorios académicos.

Google Deepmind también está colaborando con Apptronik para integrar la robótica de Géminis en su robot humanoide, Apollo. Esta asociación tiene como objetivo desarrollar robots capaces de completar tareas del mundo real con eficiencia y seguridad sin precedentes.

Gemini Robotics-ER es un modelo diseñado específicamente para mejorar las capacidades de razonamiento espacial. Este modelo permite a los robotistas conectar las habilidades de razonamiento avanzado de Gemini con sus controladores de bajo nivel existentes, lo que permite tareas como la detección de objetos, la percepción 3D y la manipulación precisa.

Por ejemplo, cuando se le muestra una taza de café, Gemini Robotics-ER puede determinar una comprensión de dos dedos apropiada para recogerla por el mango y planificar una trayectoria segura para abordarlo. El modelo logra una tasa de éxito 2X-3X en comparación con Gemini 2.0 en tareas de extremo a extremo, lo que lo convierte en una herramienta poderosa para los robotistas.

Priorizar la seguridad y la responsabilidad

Google Deepmind dice que la seguridad es una prioridad y posteriormente ha implementado un enfoque en capas para garantizar la seguridad física de los robots y las personas que los rodean. Esto incluye la integración de medidas de seguridad clásicas, como la evitación de colisiones y la limitación de la fuerza, con las capacidades de razonamiento avanzado de Gemini.

Para avanzar aún más en la investigación de seguridad, Google Deepmind está lanzando el conjunto de datos Asimov, un nuevo recurso para evaluar y mejorar la seguridad semántica en la IA y la robótica incorporada. El conjunto de datos está inspirado en el de Isaac Asimov Tres leyes de robótica y tiene como objetivo ayudar a los investigadores a desarrollar robots que sean más seguros y más alineados con los valores humanos.

Google Deepmind está trabajando con un grupo selecto de probadores, incluidos robots ágiles, robots de agilidad, dinámica de Boston y herramientas encantadas, para explorar las capacidades de Gemini Robotics-Er. Google dice que estas colaboraciones ayudarán a refinar los modelos y guiarán su desarrollo hacia aplicaciones del mundo real.

Al combinar el razonamiento avanzado con la acción física, Google Deepmind está allanando el camino para un futuro donde los robots pueden ayudar a los humanos en una amplia gama de tareas, desde tareas domésticas hasta aplicaciones industriales.

Ver también: La ‘bolsa de golf’ de los robots abordará entornos peligrosos

¿Quiere obtener más información sobre AI y Big Data de los líderes de la industria? Echa un vistazo a AI y Big Data Expo que tendrá lugar en Amsterdam, California y Londres. El evento integral está ubicado en otros eventos líderes, incluida la Conferencia de Automatización Inteligente, Blockx, la Semana de Transformación Digital y Cyber ​​Security & Cloud Expo.

Explore otros próximos eventos y seminarios web de tecnología empresarial alimentados por TechForge aquí.

Etiquetas: IA, inteligencia artificial, profunda, IA encarnada, robótica de Géminis, Google, modelos, robótica, robots

Continue Reading

Trending