Connect with us

Noticias

Chips personalizados Operai: Breaking Nvidia’s Ai Grip

Published

on

Si bien la investigación temprana de IA se benefició de los procesadores de uso general, la creciente complejidad de los modelos modernos de IA ha requerido la búsqueda de hardware más especializado. Recientemente, Operai ha anunciado un movimiento significativo para desarrollar su primer chip IA interno, una innovación que promete superar los límites del rendimiento y la eficiencia de la IA.

Cosas clave para saber:

  • Operai está desarrollando su primer chip AI interno: La compañía tiene como objetivo finalizar su diseño personalizado de silicio de IA en los próximos meses, con la fabricación manejada por TSMC utilizando tecnología avanzada de 3 nanómetros.
  • Reducción de la dependencia de Nvidia: Con Nvidia que actualmente dominaba el mercado de hardware de IA, el movimiento de OpenAI se alinea con una tendencia más amplia de la industria de las empresas, incluidas Google y Microsoft, invirtiendo en chips de IA personalizados para diversificar su ecosistema de hardware.
  • Costo significativo y factores de riesgo: Diseñar y fabricar chips de IA es un proceso costoso, con una sola iteración potencialmente superior a £ 500 millones. El éxito de OpenAI dependerá de la eficiencia de su primera optimización de software de cinta adhesiva y a largo plazo.
  • Panorama competitivo e implicaciones futuras: Se espera que el chip de OpenAI se centre inicialmente en la inferencia de IA, con iteraciones futuras que mejoran las capacidades de capacitación. Este movimiento podría mejorar la eficiencia de la IA, reducir los costos operativos y remodelar la dinámica competitiva del desarrollo de hardware de IA.

¿Qué desafíos enfrentan los sistemas de IA de hoy, qué ha desarrollado exactamente Openai (y otros) y cuáles podrían ser las implicaciones más amplias de estos chips de IA personalizados para el futuro de la investigación y la industria de la IA?

Las primeras raíces de los aceleradores de IA

El desarrollo de la inteligencia artificial ha sido un viaje largo y arduo, con numerosos contratiempos y desafíos en el camino. A pesar de La promesa temprana de AIlos primeros experimentos estuvieron severamente limitados por el hardware con poco potencia que era Disponible en ese momento. Las demandas computacionales de los modelos de IA continuaron creciendo, pero las arquitecturas de procesadores existentes lucharon para mantenerse al día, obstáculos Eso afectó significativamente la tasa de progreso de la investigación.

Como el campo de La IA continuó evolucionando, la necesidad de un hardware más potente se hizo cada vez más evidente. Sin embargo, las opciones existentes no solo eran inadecuadas sino también ineficientes. Procesadores de uso general, que eran la norma al comienzo de la revolución de la IA, no pudieron Manee las demandas en rápido crecimiento de los modelos de IA complejos. La necesidad de hardware especializado se hizo claro, pero encontrar una solución demostró ser una tarea desalentadora.

Una de las primeras soluciones para el Limitaciones de los procesadores de uso general fue el uso de GPU. Mientras que las GPU no fueron diseñado específicamente Para las tareas de IA, su arquitectura masivamente paralela las hizo muy adecuadas para cierto Aplicaciones AI. Sin embargo, el uso de GPU llegó con la suya de desafíos, ya que su arquitectura no se optimizó para la IA y, por lo tanto, desperdició recursos significativos en las tareas que fueron no relevante a ai. Esta ineficiencia no solo limitado el rendimiento de las GPU en aplicaciones de IA pero también aumentó el costo general de usarlos.

El siguiente paso en el desarrollo del hardware de IA fue la introducción de silicio personalizado. Por Diseñando un chip específicamente para AIlos investigadores esperaban superar las limitaciones e ineficiencias del hardware existente. Sin embargo, el silicio personalizado también vino con una variedad de desafíos que dificultaron la implementación. El alto costo de diseño y fabricación de silicio personalizado lo hizo inaccesible para la mayoría de los investigadores, y los largos plazos de entrega para el desarrollo de chips personalizados hicieron difícil mantener el ritmo del campo de IA en rápida evolución.

OpenAi para desarrollar chip de IA interno para fin de año

En un movimiento hacia Reducir su dependencia únicamente de Nvidia para el hardware de inteligencia artificial, Abierta ai está desarrollando su primer chip de IA interno. Según los informes de Reuters, la compañía planea finalizar su diseño en unos pocos meses, con la fabricación llevar a cabo por Taiwan Semiconductor Company (TSCM) utilizando su tecnología de proceso de 3NM.

El desarrollo del chip, que se espera en el cuarto trimestre de 2022, verá a OpenAI utilizar el proceso TSMCS 3N, que tiene un tamaño de nodo de 3 nanómetros. El chip se utilizará principalmente para ejecutar AI algoritmos, e inicialmente se integrará en Infraestructura de Openai sobre una base experimental. Se espera que las versiones futuras del dispositivo tengan capacidades mejoradas a medida que continúa OpenAI continúa para desarrollar ambos sus capacidades de software y hardware.

El papel de TSMC en la fabricación de chips de IA

La tecnología de proceso de 3 nanómetros de TSMC se encuentra entre los métodos de fabricación de chips más avanzados actualmente disponibles. La transición a la fabricación de 3NM permite una mayor densidad de transistores, mejorando la eficiencia energética y el rendimiento al tiempo que reduce la disipación de calor. Con OpenAI aprovechando esta tecnología de vanguardia, sus chips de IA personalizados podrían ofrecer optimizaciones específicas para las cargas de trabajo de aprendizaje automático.

Si bien la dependencia de OpenAI en TSMC marca una asociación estratégica, también refleja tendencias de la industria más amplias. Los competidores como Apple y Nvidia también están invirtiendo en gran medida en los procesos de fabricación de TSMC, lo que refuerza el dominio de la fundición en la informática de alto rendimiento. Sin embargo, las limitaciones de la cadena de suministro y los factores geopolíticos que rodean la fabricación de semiconductores podrían plantear desafíos para OpenAi a medida que escala su producción de chips de IA.

El movimiento de OpenAi viene como resultado de Los crecientes costos que enfrentan las empresas en la industria de la IAasí como el dependencia de productos nvidia. Como tal, muchos empresas están buscando diversificar sus capacidades de hardware, Y esto también está siendo visto en el desarrollo de hardware de IA personalizado por otras compañías.

Cambio estratégico hacia la independencia de hardware de IA

La creciente dependencia de la industria de la IA de NVIDIA ha llevado a las empresas a explorar el desarrollo de chips personalizados, no solo para la reducción de costos sino también para el apalancamiento estratégico. Nvidia actualmente posee aproximadamente el 80% del mercado de chips de IA, lo que lo convierte en el proveedor dominante. Sin embargo, los gigantes de la computación en la nube como Microsoft, Google y Amazon han iniciado esfuerzos para reducir la dependencia de los proveedores de terceros invirtiendo en chips de IA patentados.

Para OpenAI, el desarrollo de un chip AI interno permite una integración más profunda entre hardware y software, potencialmente desbloqueando la eficiencia que no se puede lograr con GPU listas para usar. Las unidades de procesamiento de tensor de Google (TPU) y los chips de entrenamiento de Amazon ilustran cómo el silicio personalizado puede mejorar el rendimiento de la IA al tiempo que reduce los gastos operativos en los centros de datos a gran escala.

Sin embargo, la transición lejos de los proveedores de chips establecidos presenta desafíos. A diferencia de Nvidia, que tiene décadas de experiencia en la optimización del hardware de IA, el programa de desarrollo de chips de OpenAI todavía está en su infancia. La ejecución exitosa requerirá no solo la experiencia de fabricación, sino también la optimización de software a largo plazo para aprovechar completamente las ventajas de hardware personalizadas.

Uno de esos ejemplos es Google, que han desarrollado su propia gama de chips de IA. Estos dispositivos están acostumbrados a Modelos de IA de Google de Google, y han sido críticos en El éxito de los servicios de IA basados ​​en la nube de Google.

Comparación de la estrategia de chip de IA de OpenAI con los competidores

Las chips MTIA de Google y MTIA sirven como puntos de referencia para cómo se puede integrar el silicio de IA personalizado en operaciones a gran escala. La arquitectura TPU de Google está optimizada específicamente para tareas de aprendizaje profundo, lo que le permite superar las GPU tradicionales en ciertas cargas de trabajo al tiempo que reduce el consumo de energía. Del mismo modo, los chips de IA internos de Meta tienen como objetivo mejorar la eficiencia en los procesos de capacitación e inferencia para modelos de idiomas grandes.

El enfoque de OpenAI difiere en que se espera que su chip de primera generación se despliegue en una escala más limitada, centrándose inicialmente en la inferencia en lugar de la capacitación a gran escala. Esto sugiere una entrada cautelosa pero estratégica en el espacio de hardware, reflejando cómo otras compañías de IA expandieron gradualmente sus iniciativas de chips antes de lograr la independencia a gran escala de NVIDIA.

Dada la inversión sustancial requerida para el desarrollo de chips de IA, estimado en más de £ 500 millones para una sola iteración, Openai necesitará navegar cuidadosamente los riesgos financieros y técnicos asociados con su hoja de ruta de hardware.

Sin embargo, desarrollar un chip AI no es una hazaña pequeña, y puede ser un proceso costoso. Un solo tapón de un chip puede costar millones de libras, y el tiempo necesario para diseñar y probar un chip es significativo. Además, no hay garantía de éxito, y una sola falla de diseño puede ver un proyecto abandonado.

Los desafíos de la fabricación de chips ai

La fabricación de un chip AI es un proceso complejo de varias etapas que requiere ingeniería precisa y una validación extensa. La fase de diseño inicial implica una rigurosa simulación y creación de prototipos para garantizar que la arquitectura satisfaga las demandas de las cargas de trabajo de IA. Una vez grabado, el chip debe someterse a una validación de silicio para identificar y rectificar posibles defectos de diseño.

Dados los altos costos asociados con un solo tapón, el éxito de OpenAI dependerá de si su primera iteración funciona según lo previsto. Si el diseño inicial requiere revisiones sustanciales, la Compañía puede enfrentar retrasos extendidos y tensión financiera adicional. Esta es una razón clave por la cual los gigantes tecnológicos como Apple y Microsoft iteran en múltiples generaciones de chips antes de lograr la viabilidad de producción completa.

Además, Operai también debe considerar el ecosistema de software que rodea su hardware. El dominio de Nvidia no es solo el resultado de sus chips, sino también la robustez de su pila de software CUDA. Para que Operai compite de manera efectiva, deberá asegurarse de que su chip de IA personalizado se integre sin problemas con los marcos de aprendizaje automático existentes, minimizando las brechas de compatibilidad para los desarrolladores.

El futuro de los ICS personalizados en la IA

El empuje hacia el desarrollo de chips internos para la IA, como la ser Desarrollado por Open AI, señala una nueva era en la evolución del hardware especializado. Como se discutió anteriormente, los chips de uso general han demostrado ser inadecuado para manejar los complejos cálculos requeridos por los modelos de IA modernos (las primeras raíces de la aceleración de IA). Si bien las GPU han sido una solución valiosa para acelerar los cálculos de IA, no son optimizado específicamente Para estas tareas, lo que lleva a recursos desperdiciados y un rendimiento reducido. El desarrollo de silicio personalizado, específicamente diseñado para acelerar los cálculos de IA complejos de manera eficiente, representa un paso significativo en el avance de el campo.

Creando sus propias chips de IA, Empresas como Open AI puede adaptar el hardware para satisfacer sus necesidades específicasasegurando la máxima eficiencia y rendimiento. Este enfoque hiperpecializado permite la reducción de Recursos desperdiciados, que permiten el desarrollo de modelos de IA más sofisticados que pueden abordar tareas complejas. La capacidad de adaptarse Rápidamente al panorama en evolución del campo AI también se vuelve más factible con el hardware personalizado, ya que las actualizaciones y modificaciones se pueden hacer más fácil y rápidamente con el enfoque tradicional de confiar en el hardware de uso general.

Mientras el desarrollo de Chips de IA internos presenta numerosos beneficiostambién presenta nuevos desafíos que deben abordarse. Uno del Las principales preocupaciones son el potencial para la creación de cuellos de botella en el ciclo de desarrollo. A medida que la demanda de modelos IA más complejos y potentes continúa creciendo la necesidad de hardware aún más avanzado se hace evidente. Si el desarrollo y la fabricación de dicho hardware no pueden mantener el ritmo de la rápida evolución del paisaje de IA, puede surgir un nuevo cuello de botella, obstaculizando el progreso del campo.

Independientemente de tales desafíos, la introducción de Los chips personalizados de Open AI es un excelente ejemplo de cómo las empresas se están moviendo hacia soluciones de silicio personalizadas para IA. Al desarrollar su propio hardware, las empresas pueden adaptar sus diseños para cumplir las necesidades específicas de sus sistemas de IA, reduciendo la cantidad de desperdiciado recursos, y mejorar el rendimiento general. Además el desarrollo por OpenAi de es First AI Chip demuestra cómo la industria está cambiando hacia un enfoque más personalizado para el hardware de IA.

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

Géminis, mayo de 2025: Su horóscopo mensual

Published

on

Para Gemini carismático, adaptable y curioso: esto es lo que puede esperar disfrutar, trabajar y recibir durante todo el mes de mayo.

Nuestras mentes subconscientes son más perceptivas a los cambios inminentes de lo que nuestras mentes conscientes podrían darse cuenta. Al igual que los temblores antes de un tsunami, las partes más profundas de nuestros corazones y mentes a menudo pueden sentir cuando está a punto de tener lugar un cambio significativo. Ese ciertamente parece ser el caso para usted este mes, Géminis, ya que su pronóstico comienza con un cuadrado desafiante entre la luna creciente de la depilación y su planeta gobernante, Mercurio. Iniciar un plan de acción preciso puede ser más difícil. La niebla cerebral y la falta general de motivación son igualmente probables culpables. Tome nota de lo que le ha estado molestando y mantenga esos registros en un lugar donde pueda acceder fácilmente a ellos. Incluso las molestias o ansiedades aparentemente menores pueden ser guías útiles al navegar por el cambio celestial principal de este mes.

Esa transición tiene lugar el 4 de mayo, cuando Plutón se retrógrado, un largo período celestial que afectará los pronósticos cósmicos en los próximos meses. A pesar de la inmensa distancia de este planeta enano desde nuestro punto de vista terrenal, la influencia de Plutón sobre nuestras mentes subconscientes, la transformación social, los tabúes, la muerte y el renacimiento lo convierten en un retrógrado notable. Si otros períodos retrógrados molestos como los de Mercurio son los sutiles susurros de los vientos que atraviesan las grietas en una pared, Plutón retrógrado es el tornado que derriba toda la estructura. Las transformaciones de Plutón son vastas y duraderas. Se pertenecen a aspectos de la existencia que trascienden nuestras vidas individuales mientras afectan cada parte de ellos.

Varios días después, el 7 de mayo, Mercurio forma una potente conjunción con Quirón en Aries. Quirón es un planeta enano que gobierna nuestras vulnerabilidades y heridas emocionales. Influye en la forma en que transformamos nuestro dolor en algo más útil y positivo, ya sea que sea sabiduría que podamos usar o el conocimiento que podemos compartir con los demás. La destreza comunicativa de Mercurio y el intelecto agudo se prestan a una mejor comprensión y, a su vez, el procesamiento de duelos pasados. Nunca es demasiado tarde para aprender de un viejo error, Géminis. Hacerlo puede ser la diferencia entre que esa herida emocional sea una costra dolorida y una cicatriz sutil. No puedes cambiar lo que ya ha pasado. Pero puedes cambiar a donde vayas a continuación.

Su planeta gobernante pasa a Tauro gobernado por la Tierra el mismo día que forma una oposición directa a la luna gibrosa. El mercurio en Tauro promueve la firmeza, la confianza y la estabilidad. También puede conducir a la terquedad, la ingenuidad y la alienación. Tenga cuidado de cómo ejerce esta energía cósmica, Stargazer. El enfrentamiento celestial de Mercurio con la luna gibosa de depilación crea conflicto entre la persona en la que se encuentra en este mismo momento y la persona que tiene el potencial de ser. La luna gibosa de depilación lo llama para evaluar su progreso hasta ahora. Si tuviera que mantener este mismo camino, ¿dónde estaría bajo el brillo de la luna llena en unos días? Si no estás contento con la respuesta, ahora es el momento de redirigir.

Tendrá la oportunidad de calificar sus respuestas, por así decirlo, cuando la luna llena alcanza su máxima fuerza en Scorpio el 12 de mayo. Una luna llena en Scorpio puede sonar intimidante (lo siento, Scorpios, pero su reputación le precede). Sin embargo, no seas tan rápido para asumir lo peor. Scorpio es un dominio celestial que bloquea el enfoque en la dinámica de poder, la mente subconsciente y los temas tabú u opaco como la sexualidad, la identidad, el propósito de la vida, la fe y lo que significa ser exitoso y contenido. Bajo el resplandor revelador de la luna llena, el Cosmos lo dirigirá hacia el tema que más ha estado sopesando mucho en su mente. El flujo de energía estará abierto durante este tiempo, Géminis. Capitalizar la oportunidad de perfeccionar su fuerza.

Un cambio tangible hacia el descanso y la recalibración comienza el 16 de mayo. En este día, la luna gibrosa disminuyendo forma un trígono armonioso con mercurio. La disminución de la luna gibosa nos empuja a liberar viejos comportamientos, ideas o incluso relaciones que ya no nos sirven como antes. Dos días después, Mercurio y Marte forman una plaza desafiante. Esta alineación envía un mensaje claro: ahora no es el momento de actuar. Habrá muchas posibilidades de afirmarse en el futuro. En este momento, las estrellas te instan a que atiendan tus propias necesidades y deseos.

El sol ingresa a su dominio celestial, iniciando la temporada de Géminis, el 20 de mayo. Además de fortalecer su sentido general de sí mismo y propósito, la ubicación del sol promueve el pensamiento flexible y una identidad maleable. Para ser claros, esto no es lo mismo que perderse por completo, Stargazer. Es simplemente una oportunidad para explorar otras partes de ti mismo que podría haber pensado que no existía. Llevas multitudes. Incluso en los últimos días de su vida, aún habrá profundidades inexploradas. Eso es lo que hace que esta información sea tan satisfactoria y la vida tan gratificante. Descubrir nuevas facetas de su identidad no es un castigo, a pesar de la mayor carga de trabajo emocional y mental. La oportunidad de mirar a tu sí mismo siempre es una bendición.

Las estrellas continúan priorizando el cambio y la innovación a medida que Mercurio y Urano se unen bajo Tauro. Urano podría tener una mala reputación por ser caótico y rebelde. Pero con Mercurio en la mezcla, esta alineación parece ser más audaz e innovadora que destructiva. Explore las posibilidades ante usted y absorbe lo que pueda. La luna nueva en su dominio celestial el 27 de mayo (que también se reúne con su planeta gobernante) ofrece el momento perfecto para reflexionar sobre el Intel que reunió. ¿Cómo se comparan las viejas y nuevas versiones de ti mismo? ¿Contraste? Equilibrio entre los dos mentiras en las respuestas a cualquier pregunta.

May será un momento especialmente tumultuoso en el cosmos, pero al menos terminaste en una buena base. El 27 de mayo también marca el comienzo de un trígono entre Plutón y Mercurio, que es seguido de cerca por la conjunción del Sol con su planeta gobernante el 30 de mayo. Se está produciendo un cambio importante, y todos los signos cósmicos apuntan a que sea para mejor. Abraza las mariposas en tu estómago, Géminis. Grandes cosas están en camino.

Así concluye sus aspectos más destacados mensuales. Para análisis celestiales más específicos, asegúrese de leer su horóscopo diario y semanal también. ¡Buena suerte, Géminis! Nos vemos el próximo mes.

Continue Reading

Noticias

How Would I Learn to Code with ChatGPT if I Had to Start Again

Published

on

Coding has been a part of my life since I was 10. From modifying HTML & CSS for my Friendster profile during the simple internet days to exploring SQL injections for the thrill, building a three-legged robot for fun, and lately diving into Python coding, my coding journey has been diverse and fun!

Here’s what I’ve learned from various programming approaches.

The way I learn coding is always similar; As people say, mostly it’s just copy-pasting. 😅

When it comes to building something in the coding world, here’s a breakdown of my method:

  1. Choose the Right Framework or Library
  2. Learn from Past Projects
  3. Break It Down into Steps
    Slice your project into actionable item steps, making development less overwhelming.
  4. Google Each Chunk
    For every step, consult Google/Bing/DuckDuckGo/any search engine you prefer for insights, guidance, and potential solutions.
  5. Start Coding
    Try to implement each step systematically.

However, even the most well-thought-out code can encounter bugs. Here’s my strategy for troubleshooting:

1. Check Framework Documentation: ALWAYS read the docs!

2. Google and Stack Overflow Search: search on Google and Stack Overflow. Example keyword would be:

site:stackoverflow.com [coding language] [library] error [error message]

site:stackoverflow.com python error ImportError: pandas module not found

– Stack Overflow Solutions: If the issue is already on Stack Overflow, I look for the most upvoted comments and solutions, often finding a quick and reliable answer.
– Trust My Intuition: When Stack Overflow doesn’t have the answer, I trust my intuition to search for trustworthy sources on Google; GeeksForGeeks, Kaggle, W3School, and Towards Data Science for DS stuff 😉

3. Copy-Paste the Code Solution

4. Verify and Test: The final step includes checking the modified code thoroughly and testing it to ensure it runs as intended.

And Voila you just solve the bug!

Photo by Stephen Hocking on Unsplash

Isn’t it beautiful?

But in reality, are we still doing this?!

Lately, I’ve noticed a shift in how new coders are tackling coding. I’ve been teaching how to code professionally for about three years now, bouncing around in coding boot camps and guest lecturing at universities and corporate training. The way coders are getting into code learning has changed a bit.

I usually tell the fresh faces to stick with the old-school method of browsing and googling for answers, but people are still using ChatGPT eventually. And their alibi is

“Having ChatGPT (for coding) is like having an extra study buddy -who chats with you like a regular person”.

It comes in handy, especially when you’re still trying to wrap your head around things from search results and documentation — to develop what is so-called programmer intuition.

Now, don’t get me wrong, I’m all for the basics. Browsing, reading docs, and throwing questions into the community pot — those are solid moves, in my book. Relying solely on ChatGPT might be a bit much. Sure, it can whip up a speedy summary of answers, but the traditional browsing methods give you the freedom to pick and choose, to experiment a bit, which is pretty crucial in the coding world.

But, I’ve gotta give credit where it’s due — ChatGPT is lightning-fast at giving out answers, especially when you’re still trying to figure out the right from the wrong in search results and docs.

I realize this shift of using ChatGPT as a study buddy is not only happening in the coding scene, Chatgpt has revolutionized the way people learn, I even use ChatGPT to fix my grammar for this post, sorry Grammarly.

Saying no to ChatGPT is like saying no to search engines in the early 2000 era. While ChatGPT may come with biases and hallucinations, similar to search engines having unreliable information or hoaxes. When ChatGPT is used appropriately, it can expedite the learning process.

Now, let’s imagine a real-life scenario where ChatGPT could help you by being your coding buddy to help with debugging.

Scenario: Debugging a Python Script

Imagine you’re working on a Python script for a project, and you encounter an unexpected error that you can’t solve.

Here is how I used to be taught to do it — the era before ChatGPT.

Browsing Approach:

  1. Check the Documentation:

Start by checking the Python documentation for the module or function causing the error.

For example:
– visit https://scikit-learn.org/stable/modules/ for Scikit Learn Doc

2. Search on Google & Stack Overflow:

If the documentation doesn’t provide a solution, you turn to Google and Stack Overflow. Scan through various forum threads and discussions to find a similar issue and its resolution.

StackOverflow Thread

3. Trust Your Intuition:

If the issue is unique or not well-documented, trust your intuition! You might explore articles and sources on Google that you’ve found trustworthy in the past, and try to adapt similar solutions to your problem.

Google Search Result

You can see that on the search result above, the results are from W3school – (trusted coding tutorial site, great for cheatsheet) and the other 2 results are official Pandas documentation. You can see that search engines do suggest users look at the official documentation. 😉

And this is how you can use ChatGPT to help you debug an issue.

New Approach with ChatGPT:

  1. Engage ChatGPT in Conversations:

Instead of only navigating through documentation and forums, you can engage ChatGPT in a conversation. Provide a concise description of the error and ask. For example,

“I’m encountering an issue in my [programming language] script where [describe the error]. Can you help me understand what might be causing this and suggest a possible solution?”

Engage ChatGPT in Conversations

2. Clarify Concepts with ChatGPT:

If the error is related to a concept you are struggling to grasp, you can ask ChatGPT to explain that concept. For example,

“Explain how [specific concept] works in [programming language]? I think it might be related to the error I’m facing. The error is: [the error]”

Clarify Concepts with ChatGPT

3. Seek Recommendations for Troubleshooting:

You ask ChatGPT for general tips on troubleshooting Python scripts. For instance,

“What are some common strategies for dealing with [issue]? Any recommendations on tools or techniques?”

Using ChatGPT as coding buddy

Potential Advantages:

  • Personalized Guidance: ChatGPT can provide personalized guidance based on the specific details you provide about the error and your understanding of the problem.
  • Concept Clarification: You can seek explanations and clarifications on concepts directly from ChatGPT leveraging their LLM capability.
  • Efficient Troubleshooting: ChatGPT might offer concise and relevant tips for troubleshooting, potentially streamlining the debugging process.

Possible Limitations:

Now let’s talk about the cons of relying on ChatGPT 100%. I saw these issues a lot in my student’s journey on using ChatGPT. Post ChatGPT era, my students just copied and pasted the 1-line error message from their Command Line Interface despite the error being 100 lines and linked to some modules and dependencies. Asking ChatGPT to explain the workaround by providing a 1 line error code might work sometimes, or worse — it might add 1–2 hour manhour of debugging.

ChatGPT comes with a limitation of not being able to see the context of your code. For sure, you can always give a context of your code. On a more complex code, you might not be able to give every line of code to ChatGPT. The fact that Chat GPT only sees the small portion of your code, ChatGPT will either assume the rest of the code based on its knowledge base or hallucinate.

These are the possible limitations of using ChatGPT:

  • Lack of Real-Time Dynamic Interaction: While ChatGPT provides valuable insights, it lacks the real-time interaction and dynamic back-and-forth that forums or discussion threads might offer. On StackOverflow, you might have 10 different people who would suggest 3 different solutions which you can compare either by DIY ( do it yourself, try it out) or see the number of upvotes.
  • Dependence on Past Knowledge: The quality of ChatGPT’s response depends on the information it has been trained on, and it may not be aware of the latest framework updates or specific details of your project.
  • Might add extra Debugging Time: ChatGPT does not have a context of your full code, so it might lead you to more debugging time.
  • Limited Understanding of Concept: The traditional browsing methods give you the freedom to pick and choose, to experiment a bit, which is pretty crucial in the coding world. If you know how to handpick the right source, you probably learn more from browsing on your own than relying on the ChatGPT general model.
    Unless you ask a language model that is trained and specialized in coding and tech concepts, research papers on coding materials, or famous deep learning lectures from Andrew Ng, Yann Le Cunn’s tweet on X (formerly Twitter), pretty much ChatGPT would just give a general answer.

This scenario showcases how ChatGPT can be a valuable tool in your coding toolkit, especially for obtaining personalized guidance and clarifying concepts. Remember to balance ChatGPT’s assistance with the methods of browsing and ask the community, keeping in mind its strengths and limitations.


Final Thoughts

Things I would recommend for a coder

If you really want to leverage the autocompletion model; instead of solely using ChatGPT, try using VScode extensions for auto code-completion tasks such as CodeGPT — GPT4 extension on VScode, GitHub Copilot, or Google Colab Autocomplete AI tools in Google Colab.

Auto code completion on Google Colab

As you can see in the screenshot above, Google Colab automatically gives the user suggestions on what code comes next.

Another alternative is Github Copilot. With GitHub Copilot, you can get an AI-based suggestion in real-time. GitHub Copilot suggests code completions as developers type and turn prompts into coding suggestions based on the project’s context and style conventions. As per this release from Github, Copilot Chat is now powered by OpenAI GPT-4 (a similiar model that ChatGPT is using).

Github Copilot Example — image by Github

I have been actively using CodeGPT as a VSCode Extension before I knew that Github Copilot is accessible for free if you are in education program. CodeGPT Co has 1M download to this date on the VSCode Extension Marketplace. CodeGPT allows seamless integration with the ChatGPT API, Google PaLM 2, and Meta Llama.
You can get code suggestions through comments, here is how:

  • Write a comment asking for a specific code
  • Press cmd + shift + i
  • Use the code 😎

You can also initiate a chat via the extension in the menu and jump into coding conversations 💬

As I reflect on my coding journey, the invaluable lesson learned is that there’s no one-size-fits-all approach to learning. It’s essential to embrace a diverse array of learning methods, seamlessly blending traditional practices like browsing and community interaction with the innovative capabilities of tools like ChatGPT and auto code-completion tools.

What to Do:

  • Utilize Tailored Learning Resources: Make the most of ChatGPT’s recommendations for learning materials.
  • Collaborate for Problem-Solving: Utilize ChatGPT as a collaborative partner as if you are coding with your friends.

What Not to Do:

  • Over-Dependence on ChatGPT: Avoid relying solely on ChatGPT and ensure a balanced approach to foster independent problem-solving skills.
  • Neglect Real-Time Interaction with Coding Community: While ChatGPT offers valuable insights, don’t neglect the benefits of real-time interaction and feedback from coding communities. That also helps build a reputation in the community
  • Disregard Practical Coding Practice: Balance ChatGPT guidance with hands-on coding practice to reinforce theoretical knowledge with practical application.

Let me know in the comments how you use ChatGPT to help you code!
Happy coding!
Ellen

🌐 Follow me on LinkedIn
🚀 Check out my portfolio: liviaellen.com/portfolio
👏 My Previous AR Works: liviaellen.com/ar-profile
☕ or just buy me a real coffee ❤ — Yes I love coffee.

About the Author

I’m Ellen, a Machine Learning engineer with 6 years of experience, currently working at a fintech startup in San Francisco. My background spans data science roles in oil & gas consulting, as well as leading AI and data training programs across APAC, the Middle East, and Europe.

I’m currently completing my Master’s in Data Science (graduating May 2025) and actively looking for my next opportunity as a machine learning engineer. If you’re open to referring or connecting, I’d truly appreciate it!

I love creating real-world impact through AI and I’m always open to project-based collaborations as well.

Continue Reading

Noticias

Lo que dice el acuerdo de OpenAI del Washington Post sobre las licencias de IA

Published

on

  • Los primeros 100 días de Trump luchando contra la prensa, el cambio de los medios de comunicación a los videos de podcasts y más.
  • La evolución de la licencia de contenido de IA ofertas

    El Washington Post se ha convertido en el último editor importante en llegar a un acuerdo de licencia con Openai, uniéndose a una cohorte creciente que ahora abarca más de 20 organizaciones de noticias.

    Es parte de un patrón familiar: cada pocos meses, Openai bloquea otro editor para reforzar su tubería de contenido. Pero los términos de estos acuerdos parecen estar evolucionando en silencio, alejándose sutilmente del lenguaje explícito en torno a los datos de capacitación que definieron acuerdos anteriores y planteando nuevas preguntas sobre lo que ahora significan estas asociaciones.

    El acuerdo del Washington Post se centra en surgir su contenido en respuesta a consultas relacionadas con las noticias. “Como parte de esta asociación, ChatGPT mostrará resúmenes, citas y enlaces a informes originales de la publicación en respuesta a preguntas relevantes”, se lee el anuncio el 22 de abril sobre el acuerdo de la publicación con OpenAI. En contraste, el pasado se ocupa de editores como Axel Springer y Time, firmado en diciembre de 2023 y junio de 2024 respectivamente, explícitamente incluyó disposiciones para la capacitación de LLM de OpenAI en su contenido.

    El acuerdo de OpenAI de The Guardian, anunciado en febrero de 2025, tiene una redacción similar al anuncio del Washington Post y no se menciona los datos de capacitación. Un portavoz de Guardian se negó a comentar sobre los términos de acuerdo con OpenAI. El Washington Post no respondió a las solicitudes de comentarios.

    Estos cambios algo sutiles en el lenguaje de los términos podrían indicar un cambio más amplio en el paisaje de IA, según conversaciones con cuatro Expertos legales de medios. Podría indicar un cambio en cómo los acuerdos de licencia de contenido de IA están estructurados en el futuro, con más editores que potencialmente buscan acuerdos que prioricen la atribución y la prominencia en los motores de búsqueda de IA sobre los derechos para la capacitación modelo.

    Otro factor a tener en cuenta: estas compañías de IA ya han capacitado a sus LLM en grandes cantidades de contenido disponible en la web, según Aaron Rubin, socio del grupo estratégico de transacciones y licencias en la firma de abogados Gunderson Dettmer. Y debido a que las compañías de IA enfrentan litigios de compañías de medios que afirman que esto era una infracción de derechos de autor, como el caso del New York Times contra OpenAI, si las compañías de IA continuaran pagando a los datos de licencia con fines de capacitación, podría verse como “una admisión implícita” que debería haber pagado para licenciar esos datos y no haberlo escrito de forma gratuita, dijo Rubin.

    “[AI companies] Ya tienen un billón de palabras que han robado. No necesitan las palabras adicionales tan mal para la capacitación, pero quieren tener el contenido actualizado para respuestas [in their AI search engines]”, Dijo Bill Gross, fundador de la empresa de inicio de IA Prorata.ai, que está construyendo soluciones tecnológicas para compensar a los editores por el contenido utilizado por las compañías generativas de IA.

    Tanto las compañías de IA como los editores pueden beneficiarse de esta posible evolución, según Rubin. Las compañías de IA obtienen acceso a noticias confiables y actualizadas de fuentes confiables para responder preguntas sobre los eventos actuales en sus productos, y los editores “pueden llenar un vacío que tenían miedo que faltaran con la forma en que estas herramientas de IA han evolucionado. Estaban perdiendo clics y globos oculares y enlaces a sus páginas”, dijo. Tener una mejor atribución en lugares como la búsqueda de chatgpt tiene el potencial de impulsar más tráfico a los sitios de los editores. Al menos, esa es la esperanza.

    “Tiene el potencial de generar más dinero para los editores”, dijo Rubin. “Los editores están apostando a que así es como las personas van a interactuar con los medios de comunicación en el futuro”.

    Desde el otoño pasado, Operai ha desafiado a los gigantes de búsqueda como Google con su motor de búsqueda de IA, búsqueda de chatgpt, y ese esfuerzo depende del acceso al contenido de noticias. Cuando se le preguntó si la estructura de los acuerdos de Operai con los editores había cambiado, un portavoz de OpenAI señaló el lanzamiento de la compañía de la compañía de ChatGPT en octubre de 2024, así como mejoras anunciadas esta semana.

    “Tenemos un feed directo al contenido de nuestro socio editor para mostrar resúmenes, citas y enlaces atribuidos a informes originales en respuesta a preguntas relevantes”, dijo el portavoz. “Ese es un componente de las ofertas. La capacitación posterior ayuda a aumentar la precisión de las respuestas relacionadas con el contenido de un editor”. El portavoz no respondió a otras solicitudes de comentarios.

    No está claro cuántos editores como The Washington Post no se pueden hacer de OpenAI, especialmente porque puede surgir un modelo diferente centrado en la búsqueda de ChatGPT. Pero la perspectiva para los acuerdos de licencia entre editores y compañías de IA parece estar empeorando. El valor de estos acuerdos está “en picado”, al menos según el CEO de Atlantic, Nicholas Thompson, quien habló en el evento Reuters Next en diciembre pasado.

    “Todavía hay un mercado para la licencia de contenido para la capacitación y eso sigue siendo importante, pero continuaremos viendo un enfoque en entrar en acuerdos que resultan en impulsar el tráfico a los sitios”, dijo John Monterubio, socio del grupo avanzado de medios y tecnología en la firma de abogados Loeb & Loeb. “Será la nueva forma de marketing de SEO y compra de anuncios, para parecer más altos en los resultados al comunicarse con estos [generative AI] herramientas.”

    Lo que hemos escuchado

    “No tenemos que preocuparnos por una narración algo falsa de: las cookies deben ir … entonces puedes poner todo este ancho de banda y potencia para mejorar el mercado actual, sin preocuparte por un posible problema futuro que estuviera en el control de Google todo el tiempo”.

    Anónimo Publishing Ejecute la decisión de Google la semana pasada de continuar usando cookies de terceros en Chrome.

    Números para saber

    $ 50 millones: la cantidad que Los Angeles Times perdió en 2024.

    50%: El porcentaje de adultos estadounidenses que dijeron que la IA tendrá un impacto muy o algo negativo en las noticias que las personas obtienen en los EE. UU. Durante los próximos 20 años, según un estudio del Centro de Investigación Pew.

    $ 100 millones: la cantidad Spotify ha pagado a los editores y creadores de podcasts desde enero.

    0.3%: La disminución esperada en el uso de los medios (canales digitales y tradicionales) en 2025, la primera caída desde 2009, según PQ Media Research.

    Lo que hemos cubierto

    Las demandas de AI destacan las luchas de los editores para impedir que los bots raspen contenido

    • La reciente demanda de Ziff Davis contra Operai destaca la realidad de que los editores aún no tienen una forma confiable de evitar que las compañías de IA raspen su contenido de forma gratuita.
    • Si bien han surgido herramientas como Robots.txt archivos, paredes de pago y etiquetas de bloqueo AI-AI, muchos editores admiten que es muy difícil hacer cumplir el control en cada bot, especialmente porque algunos ignoran los protocolos estándar o enmascaran sus identidades.

    Leer más aquí.

    ¿Quién compraría Chrome?

    • El ensayo antimonopolio de búsqueda de Google podría obligar a Google a separarse del navegador Chrome.
    • Si lo hizo, OpenAi, Perplexity, Yahoo y Duckduckgo podrían ser algunos de los compradores potenciales.

    Lea más sobre el impacto potencial de una venta masiva de Chrome aquí.

    Tiktok está cortejando a los creadores y agencias para participar en sus herramientas en vivo

    • Tiktok está tratando de demostrar el potencial de ingresos de sus herramientas en vivo.
    • La plataforma de redes sociales dice que sus creadores ahora generan colectivamente $ 10 millones en ingresos diariamente a través de la transmisión en vivo.

    Lea más sobre el tono de Tiktok aquí.

    ¿WTF son bots grises?

    • Los rastreadores y raspadores de IA generativos están siendo llamados “bots grises” por algunos para ilustrar la línea borrosa entre el tráfico real y falso.
    • Estos bots pueden afectar el análisis y robar contenido, y las impresiones publicitarias impulsadas por la IA pueden dañar las tasas de clics y las tasas de conversión.

    Lea más sobre por qué los bots grises son un riesgo para los editores aquí.

    ¿Facebook se está convirtiendo en un nuevo flujo de ingresos nuevamente para los editores?

    • Los editores han sido testigos de un reciente pico de referencia de Facebook, y es, algo sorprendentemente, coincidiendo con una afluencia de ingresos del programa de monetización de contenido de Meta.
    • De los 10 editores con los que Digay habló para este artículo, varios están en camino de hacer entre seis y siete cifras este año del último programa de monetización de contenido de Meta.

    Lea más sobre lo que reciben los editores de Facebook aquí.

    Lo que estamos leyendo

    Las ambiciones de video de los podcasts de los medios de comunicación destacan el movimiento del formato de audio a la televisión

    Los medios de comunicación como el New York Times y el Atlantic están poniendo más recursos en la producción de videos de los populares programas de podcast para aprovechar el público más joven de YouTube, informó Vanity Fair.

    La perplejidad quiere recopilar datos sobre los usuarios para vender anuncios personalizados

    El CEO de Perplexity, Aravind Srinivas, dijo que la perplejidad está construyendo su propio navegador para recopilar datos de usuarios y vender anuncios personalizados, informó TechCrunch.

    El presidente Trump apunta a la prensa en los primeros 100 días

    El presidente Trump apunta a las compañías de medios tradicionales en sus primeros 100 días, utilizando tácticas como prohibir los puntos de venta de que cubren los eventos de la Casa Blanca hasta el lanzamiento de investigaciones en las principales redes, informó Axios.

    SemAFOR probará suscripciones

    SemaFor “probará” suscripciones en “Due Time”, el fundador Justin Smith dijo al Inteligencer de la revista New York en una inmersión profunda en la empresa de inicio de noticias centrada en el boletín.

    Continue Reading

    Trending