Noticias
Por qué los padres del denunciante de OpenAI Suchir Balaji quieren que el FBI investigue su muerte – Firstpost
La muerte del denunciante de OpenAI, Suchir Balaji, se ha convertido en un tema de debate.
Balaji, de 26 años, ex empleado de OpenAI, fue encontrado muerto en noviembre.
Si bien las autoridades han dicho que la muerte de Balaji “parecía ser un suicidio”, sus padres insisten en que hay signos de juego sucio y han exigido una investigación del FBI.
¿Pero qué sabemos sobre la muerte de Balaji? ¿Y qué alegan sus padres?
Echemos un vistazo más de cerca:
¿Qué pasó?
Primero, echemos un breve vistazo a Balaji.
Balaji creció en el Área de la Bahía de San Francisco.
según el guardián, Balaji estudió informática en la Universidad de California, Berkeley.
Fue en ese momento cuando realizó una pasantía en Open AI, entonces un incipiente laboratorio de investigación de IA.
Comenzó a trabajar en OpenAI en noviembre de 2020.
Se dice que Balaji ayudó a entrenar los sistemas de inteligencia artificial detrás de ChatGPT.
según el guardiánJohn Schulman, uno de los fundadores de OpenAI, dijo que Balaji trabajó en WebGPT, un precursor de ChatGPT.
Posteriormente, Balaji pasó a organizar los enormes conjuntos de datos de escritos en línea y otros medios utilizados para entrenar GPT-4, la cuarta generación del modelo de lenguaje grande insignia de OpenAI y una base para el famoso chatbot de la compañía.
Fue ese trabajo el que eventualmente hizo que Balaji cuestionara la tecnología que ayudó a construir, especialmente después de que periódicos, novelistas y
otros comenzaron a demandar a OpenAI y otras empresas de inteligencia artificial por infracción de derechos de autor.
Balaji acabó abandonando la empresa de San Francisco en agosto.
De acuerdo a Los tiempos de la India, Balaji luego acusó a la empresa de violar la ley de derechos de autor en su capacitación de ChatGPT.
Balaji en octubre dijo Los New York Times que la empresa había violado la ley de derechos de autor.
Afirmó que programas como ChatGPT estaban dañando Internet.
“Si crees en lo que yo creo, simplemente tienes que dejar la empresa”, dijo Balaji al periódico.
Balaji dijo más tarde La prensa asociada “intentaría testificar” en los casos más graves de infracción de derechos de autor y consideró una demanda presentada por Los New York Times el año pasado fue el “más serio”.
_Los abogados del Times lo nombraron en un expediente judicial del 18 de noviembre como alguien que podría tener “documentos únicos y relevantes” que respaldan las acusaciones de infracción deliberada de derechos de autor por parte de OpenAI.
Sus registros también fueron buscados por abogados en un caso separado presentado por autores de libros, incluida la comediante Sarah Silverman, según un expediente judicial.
“No parece correcto capacitarse con los datos de las personas y luego competir con ellas en el mercado”, dijo Balaji a la AP a finales de octubre. “No creo que debas poder hacer eso. No creo que puedas hacer eso legalmente”.
le dijo al AP que gradualmente se fue desilusionando más con OpenAI, especialmente después de la agitación interna que llevó a su junta directiva a despedir y luego recontratar al director ejecutivo Sam Altman el año pasado. Balaji dijo que estaba muy preocupado por cómo se estaban implementando sus productos comerciales, incluida su propensión a emitir información falsa conocida como alucinaciones.
Pero del “conjunto de cuestiones” que le preocupaban, dijo que se estaba centrando en los derechos de autor como aquello sobre lo que “realmente era posible hacer algo”.
Reconoció que era una opinión impopular dentro de la comunidad de investigación en IA, que está acostumbrada a extraer datos de Internet, pero dijo que “tendrán que cambiar y es cuestión de tiempo”.
encontrado muerto
Balaji fue encontrado muerto en su apartamento de San Francisco el 26 de noviembre por la policía.
según el guardián, su madre, Poornima Ramarao, que vive en Union City, California, había presentado una denuncia por desaparición ante la policía.
Esto, luego de que no pudo comunicarse con su hijo durante unos días.
La policía de Union City luego contactó a las autoridades de San Francisco, quienes encontraron a Balaji muerto.
“Los agentes y médicos llegaron al lugar y localizaron a un hombre adulto fallecido por lo que parecía ser un suicidio”, dijo la policía. “Durante la investigación inicial no se encontró evidencia de crimen”.
OpenAI después de la muerte de Balaji emitió un comunicado que decía: “Estamos devastados al enterarnos de esta noticia increíblemente triste y nuestros corazones están con los seres queridos de Suchir durante este momento difícil”.
Schulman, quien por cierto renunció el mismo día que Balaji, fue citado por el guardián, “Me rompió el corazón enterarme del fallecimiento de Suchir. Trabajé con Suchir de forma intermitente desde aproximadamente 2021, y él era uno de mis colaboradores favoritos y más talentosos”.
“Las contribuciones de Suchir a este proyecto fueron esenciales y no habría tenido éxito sin él”, dijo Schulman, quien reclutó a Balaji para su equipo.
Escribió que lo que lo convirtió en un ingeniero y científico excepcional fue su atención al detalle y su capacidad para notar errores sutiles o lógicos.
“Tenía una habilidad especial para encontrar soluciones simples y escribir código elegante que funcionara”, escribió Schulman. “Pensaba en los detalles de las cosas con cuidado y rigor”.
Pero la familia de Balaji dijo que no mostraba signos de querer quitarse la vida.
También señalaron que Balaji no tenía antecedentes de enfermedad mental.
Agregaron que no se recuperó ninguna nota de suicidio.
Balaji Ramamurthy, que fue la última persona que habló con su hijo el 22 de noviembre, dijo que hablaron de su viaje a Los Ángeles como parte de la celebración de su cumpleaños.
“Estaba en Los Ángeles y se lo estaba pasando bien. Entonces nos envió todas las fotografías”, dijo Ramamurthy. “Estaba de buen humor”.
La familia de Balaji lo describió como un “joven feliz, inteligente y valiente” al que le encantaba caminar.
“Fui la última persona que habló con él”, dijo Ramamurthy. Los tiempos de la India. “Estaba feliz, no deprimido ni nada. Era la semana de su cumpleaños. ¿Cómo puede alguien creer que no quedó ninguna nota?
“Hizo planes para vernos en enero. Esa fue la última conversación telefónica que tuvo con alguien. Entró a su departamento y nunca salió”, afirmó Ramarao según Tiempos del Indostán.
“Juego sucio involucrado”
La familia de Balaji ha insistido en que se trata de un crimen.
Su madre Ramarao afirmó que el médico forense tardó menos de un minuto en calificar el incidente como suicidio.
“La razón por la que dijeron es que él entró y no salió, no había nadie con él… y se disparó”, dijo, citada por El guardián. “Había un arma cerca de él”.
“Había señales de pelea en el baño. Inyecciones de sangre. Esto no se puede ignorar”, dijo, citada por Los tiempos de la India.
Sus padres han exigido que el FBI investigue el caso de Balaji.
Ramarao en X escribió que contrataron a un investigador privado e incluso realizaron una segunda autopsia.
Dijo que la autopsia no confirmó la causa de la muerte según lo declarado por la policía.
Afirmó que el apartamento de su hijo fue saqueado, que había señales de lucha en el baño y que, según las manchas de sangre, parecía que alguien lo había golpeado.
Afirmó que las autoridades habían declarado como suicidio lo que es un asesinato a sangre fría.
“El cabildeo en la ciudad de SF no nos impide conseguir jueces. Exigimos una investigación del FBI”, concluyó.
La familia también inició un GoFundMe para recaudar fondos para litigios y realizar una investigación detallada.
Mientras tanto, Elon Musk también ha aportado su granito de arena.
“Esto no parece un suicidio”, escribió el hombre más rico del mundo en su plataforma de redes sociales X.
Musk, uno de los primeros inversores y miembro de la junta directiva de OpenAI, demandó a la empresa de inteligencia artificial a principios de este año alegando que había traicionado sus objetivos fundacionales como laboratorio de investigación sin fines de lucro que beneficiaba al bien público en lugar de buscar ganancias.
Se decía que Musk y el fundador de OpenAI, Sam Altman, estaban en desacuerdo sobre quién dirigiría la empresa.
Mientras tanto, varios usuarios de las redes sociales también apoyaron a la familia de Balaji.
“Este es un caso de alto perfil que debe ser investigado a fondo”, escribió un usuario.
“¿Estados Unidos realmente está teniendo dificultades para manejar las investigaciones básicas? Esto es muy preocupante. Era un denunciante, claramente estaba en riesgo, y llamar a esto un suicidio simplemente no cuadra”, añadió otro.
Balaji no había sido depuesto.
Aún no está claro hasta qué punto sus revelaciones serán admitidas como prueba en cualquier caso judicial después de su muerte.
También publicó una entrada en su blog personal con sus opiniones sobre el tema.
Con aportes de agencias
Noticias
Artificial intelligence may affect diversity: architecture and cultural context reflected through ChatGPT, Midjourney, and Google Maps
Adobor H (2021) Open strategy: what is the impact of national culture? Manag Res Rev. 44:1277–1297. https://doi.org/10.1108/MRR-06-2020-0334
Google Scholar
Airoldi M, Rokka J (2022) Algorithmic consumer culture. Consum Mark. Cult. 25:411–428. https://doi.org/10.1080/10253866.2022.2084726
Google Scholar
Ali T, Marc B, Omar B et al. (2021) Exploring destination’s negative e-reputation using aspect-based sentiment analysis approach: case of Marrakech destination on TripAdvisor. Tour. Manag Perspect. 40:100892. https://doi.org/10.1016/j.tmp.2021.100892
Google Scholar
Andersson R, Bråmå Å (2018) The Stockholm estates: a tale of the importance of initial conditions, macroeconomic dependencies, tenure and immigration. In: Hess D, Tammaru T, van Ham M (eds.) Housing estates in Europe, 1st edn. Springer, Cham, p 361–388
Anon (2023) How to worry wisely about artificial intelligence. The Economist. https://www.economist.com/leaders/2023/04/20/how-to-worry-wisely-about-artificial-intelligence
Berman A, de Fine Licht K, Carlsson V (2024) Trustworthy AI in the public sector: an empirical analysis of a Swedish labor market decision-support system. Technol. Soc. 76:102471. https://doi.org/10.1016/j.techsoc.2024.102471
Google Scholar
Bircan T, Korkmaz EE (2021) Big data for whose sake? Governing migration through artificial intelligence. Humanit Soc. Sci. Commun. 8:1–5. https://doi.org/10.1057/s41599-021-00910-x
Google Scholar
Borbáth E, Hutter S, Leininger A (2023) Cleavage politics, polarisation and participation in Western Europe. West Eur. Polit. 0:1–21. https://doi.org/10.1080/01402382.2022.2161786
Google Scholar
Bozdag E (2013) Bias in algorithmic filtering and personalization. Ethics Inf Technol 15:209–227. https://doi.org/10.1007/s10676-013-9321-6
Bratton B (2021) AI urbanism: a design framework for governance, program, and platform cognition. AI Soc. 36:1307–1312. https://doi.org/10.1007/s00146-020-01121-9
Google Scholar
Cachat-Rosset G, Klarsfeld A (2023) Diversity, equity, and inclusion in Artificial Intelligence: An evaluation of guidelines. Appl Artif Intell 37. https://doi.org/10.1080/08839514.2023.2176618
Campo-Ruiz I (2024) Economic powers encompass the largest cultural buildings: market, culture and equality in Stockholm, Sweden (1918–2023). ArchNet-IJAR. https://doi.org/10.1108/ARCH-06-2023-0160
Churchland PM, Churchland PS (1990) Could a machine think? Sci. Am. Assoc. Adv. Sci. 262:32–39
Google Scholar
Crawford K (2021) Atlas of AI: power, politics, and the planetary costs of artificial intelligence. Yale University Press, New Haven
Google Scholar
Cugurullo F (2021) Frankenstein urbanism: eco, smart and autonomous cities, artificial intelligence and the end of the city. Routledge, Taylor & Francis Group, London
Google Scholar
Cugurullo F, Caprotti F, Cook M et al. (2024) The rise of AI urbanism in post-smart cities: a critical commentary on urban artificial intelligence. Urban Stud. 61:1168–1182. https://doi.org/10.1177/00420980231203386
Google Scholar
Cugurullo F (2020) Urban artificial intelligence: from automation to autonomy in the smart city. Front Sustain Cities 2. https://doi.org/10.3389/frsc.2020.00038
Cugurullo F, Caprotti F, Cook M, Karvonen A, McGuirk P, Marvin S (eds.) (2023) Artificial intelligence and the city: urbanistic perspectives on AI, 1st edn. Taylor & Francis, London
Dervin F (2023) The paradoxes of interculturality: a toolbox of out-of-the-box ideas for intercultural communication education. Routledge, New York
Google Scholar
Dreyfus HL, Dreyfus SE (1988) Making a mind versus modeling the brain: Artificial Intelligence back at a branchpoint. Daedalus Camb. Mass 117:15–43
Google Scholar
Duberry J (2022) Artificial Intelligence and democracy: risks and promises of AI-mediated citizen-government relations. Edward Elgar Publishing, Northampton
Elena-Bucea A, Cruz-Jesus F, Oliveira T, Coelho PS (2021) Assessing the role of age, education, gender and income on the digital divide: evidence for the European Union. Inf. Syst. Front 23:1007–1021. https://doi.org/10.1007/s10796-020-10012-9
Google Scholar
Elliott A (2018) The Culture of AI: everyday life and the digital revolution, 1st edn. Routledge, Milton
Google Scholar
von Eschenbach WJ (2021) Transparency and the black box problem: why we do not trust AI. Philos. Technol. 34:1607–1622. https://doi.org/10.1007/s13347-021-00477-0
Google Scholar
European Parliament and the Council of the European Union (2024) Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act). https://eur-lex.europa.eu/eli/reg/2024/1689/oj. Accessed 20 Sep 2024
Flikschuh K, Ypi L, Ajei M (2015) Kant and colonialism: historical and critical perspectives. University Press, Oxford
Forty A (2000) Words and buildings: a vocabulary of modern architecture. Thames & Hudson, London
Fosch-Villaronga E, Poulsen A (2022) Diversity and inclusion in Artificial Intelligence. In: Custers B, Fosch-Villaronga E (eds) Law and Artificial Intelligence: regulating AI and applying AI in legal practice. T.M.C. Asser Press, The Hague, p 109–134
Future of Life Institute (2023) Pause giant AI experiments: an open letter. In: Future Life Inst. https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Accessed 3 Sep 2024
George AS, George ASH, Martin ASG (2023) The environmental impact of AI: a case study of water consumption by Chat GPT. Part. Univers Int Innov. J. 1:97–104. https://doi.org/10.5281/zenodo.7855594
Google Scholar
Geschke D, Lorenz J, Holtz P (2019) The triple-filter bubble: Using agent-based modelling to test a meta-theoretical framework for the emergence of filter bubbles and echo chambers. Br. J. Soc. Psychol. 58:129–149. https://doi.org/10.1111/bjso.12286
Google Scholar
Gupta R, Nair K, Mishra M et al. (2024) Adoption and impacts of generative artificial intelligence: theoretical underpinnings and research agenda. Int J. Inf. Manag Data Insights 4:100232. https://doi.org/10.1016/j.jjimei.2024.100232
Google Scholar
Haandrikman K, Costa R, Malmberg B et al. (2023) Socio-economic segregation in European cities. A comparative study of Brussels, Copenhagen, Amsterdam, Oslo and Stockholm. Urban Geogr. 44:1–36. https://doi.org/10.1080/02723638.2021.1959778
Google Scholar
Haria V, Shah Y, Gangwar V et al. (2019) The working of Google Maps, and the commercial usage of navigation systems. IJIRT 6:184–191
Google Scholar
Heckmann R, Kock S, Gaspers L (2022) Artificial intelligence supporting sustainable and individual mobility: development of an algorithm for mobility planning and choice of means of transport. In: Coors V, Pietruschka D, Zeitler B (eds) iCity. Transformative research for the livable, intelligent, and sustainable city. Springer International Publishing, Stuttgart, p 27–40
Henning M, Westlund H, Enflo K (2023) Urban–rural population changes and spatial inequalities in Sweden. Reg. Sci. Policy Pr. 15:878–892. https://doi.org/10.1111/rsp3.12602
Google Scholar
Howarth J (2024) Number of parameters in GPT-4 (Latest Data). https://explodingtopics.com/blog/gpt-parameters. Accessed 8 Sep 2024
Howe B, Brown JM, Han B, Herman B, Weber N, Yan A, Yang S, Yang Y (2022) Integrative urban AI to expand coverage, access, and equity of urban data. Eur. Phys. J. Spec. Top. 231:1741–1752. https://doi.org/10.1140/epjs/s11734-022-00475-z
Google Scholar
Jang KM, Chen J, Kang Y, Kim J, Lee J, Duarte F (2023) Understanding place identity with generative AI. Leibniz International Proceedings in Informatics, Leibniz, pp 1–6
Kent N (2008) A concise history of Sweden. Cambridge University Press, Cambridge
Google Scholar
Khan I (2024a) The quick guide to prompt engineering. John Wiley & Sons, Newark
Google Scholar
Khan S (2024b) Cultural diversity and social cohesion: perspectives from social science. Phys. Educ. Health Soc. Sci. 2:40–48
Google Scholar
Lo Piano S (2020) Ethical principles in machine learning and artificial intelligence: cases from the field and possible ways forward. Humanit Soc Sci Commun 7:1–7. https://doi.org/10.1057/s41599-020-0501-9
Luusua A, Ylipulli J, Foth M, Aurigi A (2023) Urban AI: understanding the emerging role of artificial intelligence in smart cities. AI Soc. 38:1039–1044. https://doi.org/10.1007/s00146-022-01537-5
Google Scholar
Lyu Y, Lu H, Lee MK, Schmitt G, Lim B (2024) IF-City: intelligible fair city planning to measure, explain and mitigate inequality. IEEE Trans. Vis. Comput Graph 30:3749–3766. https://doi.org/10.1109/TVCG.2023.3239909
Google Scholar
Macrorie R, Marvin S, While A (2021) Robotics and automation in the city: a research agenda. Urban Geogr. 42(2):197–217
Google Scholar
Mahmud HJA (2013) Social cohesion in multicultural society: a case of Bangladeshi immigrants in Stockholm. Dissertation, Stockholm University
Marion G (2017) How Culture Affects Language and Dialogue. In: The Routledge Handbook of Language and Dialogue. Routledge, London
McNealy JE (2021) Framing and language of ethics: technology, persuasion, and cultural context. J. Soc. Comput 2:226–237. https://doi.org/10.23919/JSC.2021.0027
Google Scholar
McQuire S (2019) One map to rule them all? Google Maps as digital technical object. Commun. Public 4:150–165. https://doi.org/10.1177/2057047319850192
Google Scholar
Mehta H, Kanani P, Lande P (2019) Google Maps. Int J. Comput. Appl 178:41–46. https://doi.org/10.5120/ijca2019918791
Google Scholar
Midjourney (2024) About. www.midjourney.com/home. Accessed 23 Oct 2024
Mironenko IA, Sorokin PS (2018) Seeking for the definition of “culture”: current concerns and their implications. a comment on Gustav Jahoda’s article “Critical reflections on some recent definitions of “culture’”. Integr. Psychol. Behav. Sci. 52:331–340. https://doi.org/10.1007/s12124-018-9425-y
Google Scholar
Mozur P (2017) Beijing wants A.I. to be made in China by 2030. N. Y. Times. https://www.nytimes.com/2017/07/20/business/china-artificial-intelligence.html
Murdie RA, Borgegård L-E (1998) Immigration, spatial segregation and housing segmentation of immigrants in metropolitan Stockholm, 1960-95. Urban Stud. Edinb. Scotl. 35:1869–1888. https://doi.org/10.1080/0042098984196
Google Scholar
Musterd S, Marcińczak S, van Ham M, Tammaru T (2017) Socioeconomic segregation in European capital cities. Increasing separation between poor and rich. Urban Geogr. 38:1062–1083. https://doi.org/10.1080/02723638.2016.1228371
Google Scholar
Newell A, Simon HA (1976) Computer science as empirical inquiry: symbols and search. Commun. ACM 19:113–126. https://doi.org/10.1145/360018.360022
Google Scholar
Norocel OC, Hellström A, Jørgensen MB (2020) Nostalgia and hope: intersections between politics of culture, welfare, and migration in Europe, 1st edn. Springer International Publishing, Cham
OECD (2019) Artificial Intelligence in Society. OECD Publishing, Paris. https://doi.org/10.1787/eedfee77-en. Accessed 23 Oct 2024
OpenAI (2023) https://openai.com/about. Accessed 20 Sep 2024
Palmini O, Cugurullo F (2023) Charting AI urbanism: conceptual sources and spatial implications of urban artificial intelligence. Discov Artif Intell 3. https://doi.org/10.1007/s44163-023-00060-w
Pariser E (2011) The filter bubble: what the Internet is hiding from you. Viking, London
Parker PD, Van Zanden B, Marsh HW, Owen K, Duineveld J, Noetel M (2020) The intersection of gender, social class, and cultural context: a meta-analysis. Educ. Psychol. Rev. 32:197–228. https://doi.org/10.1007/s10648-019-09493-1
Google Scholar
Peng J, Strijker D, Wu Q (2020) Place identity: how far have we come in exploring its meanings? Front Psychol 11. https://doi.org/10.3389/fpsyg.2020.00294
Peng Z-R, Lu K-F, Liu Y, Zhai W (2023) The pathway of urban planning AI: from planning support to plan-making. J Plan Educ Res 0. https://doi.org/10.1177/0739456X231180568
Phuangsuwan P, Siripipatthanakul S, Limna P, Pariwongkhuntorn N (2024) The impact of Google Maps application on the digital economy. Corp. Bus. Strategy Rev. 5:192–203. https://doi.org/10.22495/cbsrv5i1art18
Google Scholar
Popelka S, Narvaez Zertuche L, Beroche H (2023) Urban AI guide. Urban AI. https://urbanai.fr/
Prabhakaran V, Qadri R, Hutchinson B (2022) Cultural incongruencies in Artificial Intelligence. ArXiv Cornell Univ. https://doi.org/10.48550/arxiv.2211.13069
Raile P (2024) The usefulness of ChatGPT for psychotherapists and patients. Humanit Soc. Sci. Commun. 11:47–48. https://doi.org/10.1057/s41599-023-02567-0
Google Scholar
Rhodes SC (2022) Filter bubbles, echo chambers, and fake news: How social media conditions individuals to be less critical of political misinformation. Polit Commun 39:1–22. https://doi.org/10.1080/10584609.2021.1910887
Robertson RE, Green J, Ruck DJ, et al. (2023) Users choose to engage with more partisan news than they are exposed to on Google Search. Nature 618:342–348. https://doi.org/10.1038/s41586-023-06078-5
Rönnblom M, Carlsson V, Öjehag‐Pettersson A (2023) Gender equality in Swedish AI policies. What’s the problem represented to be? Rev. Policy Res 40:688–704. https://doi.org/10.1111/ropr.12547
Google Scholar
Sabherwal R, Grover V (2024) The societal impacts of generative Artificial Intelligence: a balanced perspective. J. Assoc. Inf. Syst. 25:13–22. https://doi.org/10.17705/1jais.00860
Google Scholar
Sanchez TW, Shumway H, Gordner T, Lim T (2023) The prospects of Artificial Intelligence in urban planning. Int J. Urban Sci. 27:179–194. https://doi.org/10.1080/12265934.2022.2102538
Google Scholar
Sareen S, Saltelli A, Rommetveit K (2020) Ethics of quantification: illumination, obfuscation and performative legitimation. Palgrave Commun 6. https://doi.org/10.1057/s41599-020-0396-5
Searle J (1980) Minds, brains and programs. In: Collins A, Smith EE (eds) Readings in Cognitive Science. Morgan Kaufmann, San Mateo, p 20–31
Sherman S (2023) The polyopticon: a diagram for urban Artificial Intelligences. AI Soc. 38:1209–1222. https://doi.org/10.1007/s00146-022-01501-3
Google Scholar
Sloan RH, Warner R (2020) Beyond bias: Artificial Intelligence and social justice. Va J. Law Technol. 24:1
Google Scholar
Son TH, Weedon Z, Yigitcanlar T et al. (2023) Algorithmic urban planning for smart and sustainable development: Systematic review of the literature. Sustain Cities Soc. 94:104562. https://doi.org/10.1016/j.scs.2023.104562
Google Scholar
Sun J, Song J, Jiang Y, et al. (2022) Prick the filter bubble: A novel cross domain recommendation model with adaptive diversity regularization. Electron Mark 32:101–121. https://doi.org/10.1007/s12525-021-00492-1
Tan L, Luhrs M (2024) Using generative AI Midjourney to enhance divergent and convergent thinking in an architect’s creative design process. Des. J. 27:677–699. https://doi.org/10.1080/14606925.2024.2353479
Google Scholar
Tseng Y-S (2023) Assemblage thinking as a methodology for studying urban AI phenomena. AI Soc. 38:1099–1110. https://doi.org/10.1007/s00146-022-01500-4
Google Scholar
Ullah Z, Al-Turjman F, Mostarda L, Gagliardi R (2020) Applications of Artificial Intelligence and Machine Learning in smart cities. Comput Commun. 154:313–323. https://doi.org/10.1016/j.comcom.2020.02.069
Google Scholar
Verdegem P (2022) Dismantling AI capitalism: the commons as an alternative to the power concentration of Big Tech. AI Soc 1–11. https://doi.org/10.1007/s00146-022-01437-8
Weizenbaum J (1984) Computer power and human reason: from judgment to calculation. Penguin, Harmondsworth
Google Scholar
Wu T, He S, Liu J et al. (2023) A brief overview of ChatGPT: The history, status quo and potential future development. IEEECAA J. Autom. Sin. 10:1122–1136. https://doi.org/10.1109/JAS.2023.123618
Google Scholar
Yigitcanlar T, Corchado JM, Mehmood R, Li RYM, Mossberger K, Desouza KC (2021) Responsible urban innovation with local government Artificial Intelligence (AI): A conceptual framework and research agenda. J. Open Innov. 7:1–16. https://doi.org/10.3390/joitmc7010071
Google Scholar
Zhang Q, Lu J, Jin Y (2021) Artificial Intelligence in recommender systems. Complex Intell. Syst. 7:439–457. https://doi.org/10.1007/s40747-020-00212-w
Google Scholar
Zhang J, Hu C (2023) Adaptive algorithms: users must be more vigilant. Nat Lond 618:907–907. https://doi.org/10.1038/d41586-023-02033-6
Noticias
“Es una suerte y una lección de humildad” trabajar hacia la superinteligencia
Sam Altman, director ejecutivo y cofundador de OpenAI, ha compartido reflexiones sinceras sobre el viaje de la empresa en su objetivo de lograr la superinteligencia.
Ahora que ChatGPT celebra recientemente su segundo aniversario, Altman describe los logros de OpenAI, los desafíos actuales y la visión para el futuro de la IA.
“El segundo cumpleaños de ChatGPT fue hace sólo poco más de un mes, y ahora hemos hecho la transición al siguiente paradigma de modelos que pueden realizar razonamientos complejos”, reflexiona Altman.
Una misión audaz para lograr AGI y superinteligencia
OpenAI se fundó en 2015 con una misión clara, aunque audaz: desarrollar AGI y garantizar que beneficie a toda la humanidad.
Altman y el equipo fundador creían que AGI podría convertirse en “la tecnología de mayor impacto en la historia de la humanidad”. Sin embargo, recuerda, el mundo no estaba particularmente interesado en su búsqueda en aquel entonces.
“En ese momento, a muy pocas personas les importaba, y si les importaba, era principalmente porque pensaban que no teníamos posibilidades de éxito”, explica Altman.
Un avance rápido hasta 2022, OpenAI todavía era una instalación de investigación relativamente silenciosa que probaba lo que entonces se conocía como “Chat With GPT-3.5”. Los desarrolladores habían estado explorando las capacidades de su API y el entusiasmo despertó la idea de lanzar una demostración lista para el usuario.
Esta demostración condujo a la creación de ChatGPT, que Altman reconoce que se benefició de una marca “afortunadamente” mejor que su nombre inicial. Cuando se lanzó el 30 de noviembre de 2022, ChatGPT demostró ser un punto de inflexión.
“El lanzamiento de ChatGPT inició una curva de crecimiento como nunca antes habíamos visto, en nuestra empresa, nuestra industria y el mundo en general”, dice.
Desde entonces, OpenAI ha sido testigo de una evolución marcada por un interés asombroso, no sólo en sus herramientas sino en las posibilidades más amplias de la IA.
Construyendo a una velocidad vertiginosa
Altman admite que convertir OpenAI en una potencia tecnológica global planteó desafíos importantes.
“En los últimos dos años, tuvimos que construir una empresa entera, casi desde cero, en torno a esta nueva tecnología”, señala, y añade: “No hay manera de formar a la gente para esto excepto haciéndolo”.
Al operar en aguas desconocidas, el equipo de OpenAI a menudo se enfrentó a la ambigüedad: tomó decisiones sobre la marcha y tuvo que lidiar con los inevitables pasos en falso.
“Construir una empresa a tan alta velocidad con tan poca capacitación es un proceso complicado”, explica Altman. “A menudo son dos pasos hacia adelante y uno hacia atrás (y, a veces, un paso hacia adelante y dos hacia atrás)”.
Sin embargo, a pesar del caos, Altman atribuye el mérito a la resiliencia y la capacidad de adaptación del equipo.
OpenAI ahora cuenta con más de 300 millones de usuarios activos semanales, un fuerte aumento con respecto a los 100 millones reportados hace apenas un año. Gran parte de este éxito radica en el espíritu de la organización de aprender haciendo, combinado con el compromiso de llevar al mundo “tecnología que la gente realmente parece amar y que resuelve problemas reales”.
“Un gran fracaso de la gobernanza”
Por supuesto, el viaje hasta ahora no ha estado exento de turbulencias. Altman relata un capítulo particularmente difícil de noviembre de 2023, cuando fue repentinamente destituido como director ejecutivo, contratado brevemente por Microsoft, para ser reinstalado por OpenAI días después en medio de una reacción violenta de la industria y protestas del personal.
Hablando abiertamente, Altman destaca la necesidad de mejores estructuras de gobernanza en las organizaciones que abordan tecnologías críticas como la IA.
“Todo el evento fue, en mi opinión, un gran fracaso de la gobernanza por parte de personas bien intencionadas, incluido yo mismo”, admite. “Mirando hacia atrás, ciertamente desearía haber hecho las cosas de manera diferente y me gustaría creer que hoy soy un líder mejor y más reflexivo que hace un año”.
El episodio sirvió como un crudo recordatorio de la complejidad de gestionar el rápido crecimiento y lo que está en juego en el desarrollo de la IA. También impulsó a OpenAI a forjar nuevas estructuras de gobernanza “que nos permitan llevar a cabo nuestra misión de garantizar que AGI beneficie a toda la humanidad”.
Altman expresó su profunda gratitud por el apoyo que OpenAI recibió durante la crisis por parte de empleados, socios y clientes. “Lo más importante que aprendí es cuánto tengo que estar agradecido y a cuántas personas debo gratitud”, enfatiza.
Pivotando hacia la superinteligencia
De cara al futuro, Altman dice que OpenAI está empezando a apuntar más allá de la AGI hacia el desarrollo de “superinteligencia”, sistemas de IA que superan con creces las capacidades cognitivas humanas.
“Ahora estamos seguros de que sabemos cómo construir AGI como lo hemos entendido tradicionalmente”, comparte Altman. OpenAI predice que para finales de este año, los agentes de IA se “unirán significativamente a la fuerza laboral”, revolucionando las industrias con sistemas complementarios y de automatización más inteligentes.
Lograr la superinteligencia sería especialmente transformador para la sociedad, con el potencial de acelerar los descubrimientos científicos, pero también plantea los peligros más importantes.
“Creemos en la importancia de ser líderes mundiales en investigación de seguridad y alineación… OpenAI no puede ser una empresa normal”, señala, subrayando la necesidad de abordar la innovación de manera responsable.
La estrategia de OpenAI incluye introducir gradualmente avances en el mundo, permitiendo que la sociedad se adapte a la rápida evolución de la IA. “Poner de forma iterativa excelentes herramientas en manos de las personas conduce a resultados excelentes y ampliamente distribuidos”, argumenta Altman.
Al reflexionar sobre la trayectoria de la organización, Altman admite que el camino de OpenAI ha estado definido tanto por avances extraordinarios como por desafíos importantes, desde ampliar equipos hasta navegar el escrutinio público.
“Hace nueve años, realmente no teníamos idea de en qué nos íbamos a convertir; Incluso ahora, sólo lo sabemos en cierto modo”, afirma.
Lo que queda claro es su compromiso inquebrantable con la visión de OpenAI. “Nuestra visión no cambiará; Nuestras tácticas seguirán evolucionando”, afirma Altman, atribuyendo el notable progreso de la empresa a la voluntad del equipo de repensar los procesos y aceptar los desafíos.
A medida que la IA continúa remodelando las industrias y la vida diaria, el mensaje central de Altman es evidente: si bien el viaje no ha sido nada sencillo, OpenAI se mantiene firme en su misión de desbloquear los beneficios de la IA para todos.
“Qué suerte y qué humildad es poder desempeñar un papel en este trabajo”, concluye Altman.
Ver también: OpenAI financia un estudio de 1 millón de dólares sobre IA y moralidad en la Universidad de Duke
¿Quiere aprender más sobre IA y big data de la mano de los líderes de la industria? Echa un vistazo a AI & Big Data Expo que se lleva a cabo en Ámsterdam, California y Londres. El evento integral comparte ubicación con otros eventos líderes, como la Conferencia de Automatización Inteligente, BlockX, la Semana de Transformación Digital y la Cyber Security & Cloud Expo.
Explore otros próximos eventos y seminarios web de tecnología empresarial impulsados por TechForge aquí.
Noticias
Mientras OpenAI busca ganancias, el activista busca vengarse del público
Se está gestando una batalla por la reestructuración de OpenAI, el creador del chatbot pionero de inteligencia artificial ChatGPT. Se fundó como una organización sin fines de lucro en 2015 con el objetivo de desarrollar IA para beneficiar a la humanidad, no a los inversores. Pero la IA avanzada requiere una potencia de procesamiento masiva, lo que se vuelve costoso, lo que influye en la decisión de la empresa de contratar grandes inversores. Recientemente, OpenAI dio a conocer un plan para la transición a una corporación de beneficio público con fines de lucro.
Ese plan ha generado objeciones de personas como Elon Musk, Meta y Robert Weissman, copresidente del grupo de defensa del consumidor Public Citizen, que instó a las autoridades de California a garantizar que, a medida que OpenAI se reorganice, devolverá gran parte de los beneficios que recibió como organización sin fines de lucro. .
La siguiente es una transcripción editada de la conversación de Weissman con Meghan McCarty Carino de Marketplace.
Robert Weissman: Ser una organización sin fines de lucro habilitada [OpenAI] aceptar donaciones, y ese fue el modelo para la organización sin fines de lucro, al igual que es el modelo para otras organizaciones sin fines de lucro. Habían donado dinero en efectivo y donaciones en especie de poder computacional para hacer su trabajo de desarrollar esta nueva tecnología. No tenían que fingir que iban a poder devolver la inversión a la gente. Les pidieron que lo hicieran con fines benéficos y pudieron recaudar una cantidad significativa de dinero y recursos a través de ese enfoque.
Meghan McCarty Cariño: Entonces, tengo entendido que en 2019, OpenAI hizo una transición a una estructura diferente para poder recibir dinero de inversores como Microsoft. Pero el negocio, un negocio con ganancias limitadas, todavía ha sido gobernado aparentemente por la organización sin fines de lucro. Ahora, busca convertirse en una corporación de beneficio público con fines de lucro. ¿Qué dice la ley sobre lo que se requiere para realizar este tipo de pivote?
Weissman: Esto es algo muy, muy inusual, y tal vez ninguna entidad haya seguido exactamente el camino que ha tomado OpenAI. Pero hay una historia de organizaciones sin fines de lucro que se convierten en organizaciones con fines de lucro, que no es exactamente lo que está haciendo OpenAI, pero es la historia central de lo que está haciendo OpenAI. Y para hacer esa conversión, tendrán que recibir efectivamente el visto bueno de los fiscales generales de Delaware, donde está constituida la operación, y de California, donde están registrados y donde hacen negocios.
En la historia de este tipo de conversiones, si vas a sacar activos del sector sin fines de lucro, tienes que devolverle al sector sin fines de lucro el valor de lo que estás tomando. Si diriges una empresa benéfica, no puedes privatizarla de repente y hacerla tuya. Si eres el director ejecutivo de una organización benéfica, no puedes simplemente donarla a una corporación, o no puedes simplemente convertir tu organización sin fines de lucro en una corporación con fines de lucro porque pudiste tener éxito y evolucionar bajo el paraguas de acuerdos sin fines de lucro, apoyo deducible de impuestos, etc. Tienes que devolverle el dinero al sector caritativo. El precedente más importante de este tipo de conversiones es la conversión de compañías de seguros médicos Blue Cross sin fines de lucro en compañías de atención médica Blue Cross con fines de lucro. Esto ocurrió en todo Estados Unidos y en todos los estados donde sucedió, la entidad con fines de lucro debía devolver al sector sin fines de lucro una cantidad igual en valor a lo que estaban privatizando. Por lo general, ese dinero se dedicaba luego a una fundación benéfica de atención médica. Muchas grandes fundaciones benéficas de atención médica todavía existen, incluso en California, a partir de ese tipo de conversiones.
McCarty Carino: Entonces, ¿qué ha sugerido OpenAI sobre cómo realizaría esta transición y qué le preocupa sobre su plan?
Weissman: Bueno, las cosas han evolucionado rápidamente y muy recientemente. Ahora han anunciado su intención de hacerlo, aunque ya se rumoreaba desde hacía algún tiempo. Lo que OpenAI dice que van a hacer es escindir su filial con fines de lucro. En este momento, tienen una junta sin fines de lucro que controla una afiliada con fines de lucro, y la organización con fines de lucro pagaría a la organización sin fines de lucro el valor de lo que están tomando, y eso sería propiedad de la organización sin fines de lucro en forma de acciones en el nuevo OpenAI independiente y con fines de lucro. Así que proponen hacer ese pago al sector sin fines de lucro básicamente pagándose a ellos mismos, lo cual creemos que no es una buena idea.
McCarty Carino: Así que usted escribió una carta al fiscal general de California, Rob Bonta, en septiembre defendiendo que OpenAI pagara al menos 30 mil millones de dólares y compartiera cualquier tecnología de inteligencia artificial general básicamente con una fundación benéfica, una fundación benéfica independiente. ¿Cómo se te ocurrió eso?
Weissman: Bueno, primero comenzamos a comunicarnos con los fiscales generales de California y también de Delaware después de la muy extraña y muy publicitada reorganización de la junta directiva de OpenAI en noviembre de 2023, porque lo que vimos que sucedió allí fue que la junta sin fines de lucro intentaba ejercer control sobre la afiliada con fines de lucro. y perdiendo. Las fuerzas con fines de lucro dentro y alrededor de OpenAI básicamente abrumaron a la junta directiva de las organizaciones sin fines de lucro, las expulsaron y las reemplazaron con gente nueva. En ese momento, nos pareció que esta entidad, fuera lo que fuera, esta entidad combinada, ya no funcionaba realmente como una organización sin fines de lucro. Efectivamente se había convertido en una empresa con fines de lucro. Y empezamos a decir, bueno, si ese es el caso, entonces tienen el deber de pagar al sector sin fines de lucro el valor de lo que están retirando, tal como fue el caso con estas conversiones de Blue Cross. Ahora, poco más de un año después, OpenAI dice: sí, es cierto, en realidad ya no queremos pretender ser una organización sin fines de lucro; queremos hacer esa conversión. Entonces, antes de que esto suceda, dijimos, si va a haber una conversión, si realmente se va a hacer eso formalmente, o si se va a obligar a hacerlo, para reconocer lo que efectivamente ya sucedió, ¿cuál es el valor? que tienen que devolver el dinero?
Ahora han desarrollado una estructura muy extraña, no toda transparente. No está claro que OpenAI, la organización sin fines de lucro, tenga muchas acciones o tenga mucha participación accionaria en OpenAI, la organización con fines de lucro. Sin embargo, según los términos de configuración de toda la operación, sí tiene control sobre OpenAI con fines de lucro. Entonces dijimos, mire, al menos se les debe la prima de control, que en el extremo inferior es el 20% del valor de una empresa adquirida en la mayoría de las transacciones que tienen lugar y en el mercado de valores y adquisiciones regulares. Bueno, el 20% de los 150.000 millones de dólares, que es el valor actual de OpenAI, supone un mínimo de 30.000 millones de dólares. Hay muchas razones para pensar que las cifras deberían ser más altas, tal vez mucho más altas que eso, pero creemos que 30.000 millones de dólares es la base de lo que hay que pagar. Y nuevamente, para nosotros, no funciona si OpenAI simplemente se paga a sí mismo, básicamente hace que las organizaciones con fines de lucro paguen a las organizaciones sin fines de lucro que son afiliadas y no verdaderamente independientes. Tiene que volver al sector caritativo independiente, lo que probablemente significaría una o más fundaciones independientes que realmente podrían promover los intereses del desarrollo de la IA para el interés público, promover las preocupaciones éticas y de seguridad de la inteligencia artificial y descubrir cómo proporcionar un mayor acceso a personas a las nuevas tecnologías que están surgiendo.
McCarty Carino: Entonces, ¿cómo ve este posible giro que impactará la visión original de OpenAI de anteponer la humanidad a las ganancias en la búsqueda de la inteligencia artificial?
Weissman: Bueno, creo que han abandonado eso. Creo que lo abandonaron antes de esta conversión, por lo que, desde nuestro punto de vista, parece que el genio ya está fuera de la botella. Dicen que se están convirtiendo, que quieren convertirse en una corporación de beneficio público, que tendría la capacidad de considerar tanto intereses lucrativos como no lucrativos. Pero, de hecho, lo que hemos visto con OpenAI durante el último año, en realidad con el lanzamiento de la popular versión de ChatGPT, es que ha sido la menos preocupada por la seguridad, la más agresiva en la introducción de nuevas tecnologías de todas las empresas de IA. . Entonces introdujeron la tecnología que Google más o menos tenía, pero tenía miedo de lanzarla al mercado debido a preocupaciones sobre la seguridad y tal vez debido a la responsabilidad, pero se vio obligado a ponerse al día rápidamente después de que OpenAI avanzó. Estamos viendo eso nuevamente con OpenAI introduciendo tecnologías que tienen una capacidad de voz artificial de increíblemente alta calidad, lo que realmente hace posible y probable que las personas se dejen engañar por voces con sonido humano que serán muy fácilmente implementables a través de Internet. Y esa es también una tecnología que Google había analizado, había considerado demasiado arriesgada y no iba a introducir en el mercado. Pero una vez que un competidor lo hace, los demás rápidamente le siguen. Entonces, desde nuestro punto de vista, OpenAI ha dejado atrás la idea de priorizar la seguridad y la ética y está realmente más interesado en ser el primero en actuar. Así que el viejo lema de Silicon Valley “Muévete rápido y rompe cosas” parece ser lo que OpenAI ha adoptado, a pesar de ser supuestamente una organización sin fines de lucro y una operación que prioriza los intereses de la humanidad por encima de cualquier consideración de lucro.
McCarty Carino: ¿Qué papel podría desempeñar esta fundación benéfica independiente en ese contexto?
Weissman: Bueno, dependiendo del tamaño de la fundación, podría apoyar todo tipo de programas de investigación, promoción, educación y acceso. Podría apoyar la investigación y la innovación diseñadas para garantizar la seguridad. Podría apoyar a empresas emergentes más pequeñas que se estuvieran moviendo en calidad de organización sin fines de lucro y comprometidas a permanecer en esa capacidad. Podría prestar más atención a la seguridad, por un lado, y al acceso a las nuevas tecnologías, por el otro. Podría apoyar los esfuerzos para garantizar que las personas de bajos ingresos tuvieran acceso a nuevas tecnologías a medida que estuvieran disponibles. Podría formar a nuevas personas para que se conviertan en programadores y desarrolladores. Podría respaldar la promoción para hacer retroceder el poder monopólico de empresas como OpenAI. Hay muchísimo que podría hacer, e idealmente, en realidad sería más de una sola base. A esa escala de recursos, creo que sería mejor distribuirlo entre muchos. Pero pase lo que pase, realmente podría convertirse en un actor poderoso para compensar el desafortunado movimiento que estamos viendo de desarrollar estas tecnologías realmente fascinantes mucho antes de considerar la seguridad, la ética y el acceso.
-
Startups8 meses ago
Remove.bg: La Revolución en la Edición de Imágenes que Debes Conocer
-
Recursos8 meses ago
Cómo Empezar con Popai.pro: Tu Espacio Personal de IA – Guía Completa, Instalación, Versiones y Precios
-
Recursos8 meses ago
Suno.com: La Revolución en la Creación Musical con Inteligencia Artificial
-
Recursos8 meses ago
Perplexity aplicado al Marketing Digital y Estrategias SEO
-
Estudiar IA8 meses ago
Curso de Inteligencia Artificial de UC Berkeley estratégico para negocios
-
Tutoriales8 meses ago
Cómo Comenzar a Utilizar ChatGPT: Una Guía Completa para Principiantes
-
Eventos8 meses ago
La nueva era de la inteligencia artificial por el Washington Post – Mayo 2024
-
Noticias6 meses ago
Dos periodistas octogenarios deman a ChatGPT por robar su trabajo