Connect with us

Noticias

Artificial intelligence may affect diversity: architecture and cultural context reflected through ChatGPT, Midjourney, and Google Maps

Published

on

  • Adobor H (2021) Open strategy: what is the impact of national culture? Manag Res Rev. 44:1277–1297. https://doi.org/10.1108/MRR-06-2020-0334

    Article 
    MATH 

    Google Scholar 

  • Airoldi M, Rokka J (2022) Algorithmic consumer culture. Consum Mark. Cult. 25:411–428. https://doi.org/10.1080/10253866.2022.2084726

    Article 
    MATH 

    Google Scholar 

  • Ali T, Marc B, Omar B et al. (2021) Exploring destination’s negative e-reputation using aspect-based sentiment analysis approach: case of Marrakech destination on TripAdvisor. Tour. Manag Perspect. 40:100892. https://doi.org/10.1016/j.tmp.2021.100892

    Article 

    Google Scholar 

  • Andersson R, Bråmå Å (2018) The Stockholm estates: a tale of the importance of initial conditions, macroeconomic dependencies, tenure and immigration. In: Hess D, Tammaru T, van Ham M (eds.) Housing estates in Europe, 1st edn. Springer, Cham, p 361–388

  • Anon (2023) How to worry wisely about artificial intelligence. The Economist. https://www.economist.com/leaders/2023/04/20/how-to-worry-wisely-about-artificial-intelligence

  • Berman A, de Fine Licht K, Carlsson V (2024) Trustworthy AI in the public sector: an empirical analysis of a Swedish labor market decision-support system. Technol. Soc. 76:102471. https://doi.org/10.1016/j.techsoc.2024.102471

    Article 

    Google Scholar 

  • Bircan T, Korkmaz EE (2021) Big data for whose sake? Governing migration through artificial intelligence. Humanit Soc. Sci. Commun. 8:1–5. https://doi.org/10.1057/s41599-021-00910-x

    Article 
    MATH 

    Google Scholar 

  • Borbáth E, Hutter S, Leininger A (2023) Cleavage politics, polarisation and participation in Western Europe. West Eur. Polit. 0:1–21. https://doi.org/10.1080/01402382.2022.2161786

    Article 
    MATH 

    Google Scholar 

  • Bozdag E (2013) Bias in algorithmic filtering and personalization. Ethics Inf Technol 15:209–227. https://doi.org/10.1007/s10676-013-9321-6

  • Bratton B (2021) AI urbanism: a design framework for governance, program, and platform cognition. AI Soc. 36:1307–1312. https://doi.org/10.1007/s00146-020-01121-9

    Article 
    MATH 

    Google Scholar 

  • Cachat-Rosset G, Klarsfeld A (2023) Diversity, equity, and inclusion in Artificial Intelligence: An evaluation of guidelines. Appl Artif Intell 37. https://doi.org/10.1080/08839514.2023.2176618

  • Campo-Ruiz I (2024) Economic powers encompass the largest cultural buildings: market, culture and equality in Stockholm, Sweden (1918–2023). ArchNet-IJAR. https://doi.org/10.1108/ARCH-06-2023-0160

  • Churchland PM, Churchland PS (1990) Could a machine think? Sci. Am. Assoc. Adv. Sci. 262:32–39

    CAS 

    Google Scholar 

  • Crawford K (2021) Atlas of AI: power, politics, and the planetary costs of artificial intelligence. Yale University Press, New Haven

    Book 
    MATH 

    Google Scholar 

  • Cugurullo F (2021) Frankenstein urbanism: eco, smart and autonomous cities, artificial intelligence and the end of the city. Routledge, Taylor & Francis Group, London

    Book 

    Google Scholar 

  • Cugurullo F, Caprotti F, Cook M et al. (2024) The rise of AI urbanism in post-smart cities: a critical commentary on urban artificial intelligence. Urban Stud. 61:1168–1182. https://doi.org/10.1177/00420980231203386

    Article 
    MATH 

    Google Scholar 

  • Cugurullo F (2020) Urban artificial intelligence: from automation to autonomy in the smart city. Front Sustain Cities 2. https://doi.org/10.3389/frsc.2020.00038

  • Cugurullo F, Caprotti F, Cook M, Karvonen A, McGuirk P, Marvin S (eds.) (2023) Artificial intelligence and the city: urbanistic perspectives on AI, 1st edn. Taylor & Francis, London

  • Dervin F (2023) The paradoxes of interculturality: a toolbox of out-of-the-box ideas for intercultural communication education. Routledge, New York

    MATH 

    Google Scholar 

  • Dreyfus HL, Dreyfus SE (1988) Making a mind versus modeling the brain: Artificial Intelligence back at a branchpoint. Daedalus Camb. Mass 117:15–43

    MATH 

    Google Scholar 

  • Duberry J (2022) Artificial Intelligence and democracy: risks and promises of AI-mediated citizen-government relations. Edward Elgar Publishing, Northampton

  • Elena-Bucea A, Cruz-Jesus F, Oliveira T, Coelho PS (2021) Assessing the role of age, education, gender and income on the digital divide: evidence for the European Union. Inf. Syst. Front 23:1007–1021. https://doi.org/10.1007/s10796-020-10012-9

    Article 

    Google Scholar 

  • Elliott A (2018) The Culture of AI: everyday life and the digital revolution, 1st edn. Routledge, Milton

    MATH 

    Google Scholar 

  • von Eschenbach WJ (2021) Transparency and the black box problem: why we do not trust AI. Philos. Technol. 34:1607–1622. https://doi.org/10.1007/s13347-021-00477-0

    Article 
    MATH 

    Google Scholar 

  • European Parliament and the Council of the European Union (2024) Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 June 2024 laying down harmonised rules on artificial intelligence and amending Regulations (EC) No 300/2008, (EU) No 167/2013, (EU) No 168/2013, (EU) 2018/858, (EU) 2018/1139 and (EU) 2019/2144 and Directives 2014/90/EU, (EU) 2016/797 and (EU) 2020/1828 (Artificial Intelligence Act). https://eur-lex.europa.eu/eli/reg/2024/1689/oj. Accessed 20 Sep 2024

  • Flikschuh K, Ypi L, Ajei M (2015) Kant and colonialism: historical and critical perspectives. University Press, Oxford

  • Forty A (2000) Words and buildings: a vocabulary of modern architecture. Thames & Hudson, London

  • Fosch-Villaronga E, Poulsen A (2022) Diversity and inclusion in Artificial Intelligence. In: Custers B, Fosch-Villaronga E (eds) Law and Artificial Intelligence: regulating AI and applying AI in legal practice. T.M.C. Asser Press, The Hague, p 109–134

  • Future of Life Institute (2023) Pause giant AI experiments: an open letter. In: Future Life Inst. https://futureoflife.org/open-letter/pause-giant-ai-experiments/. Accessed 3 Sep 2024

  • George AS, George ASH, Martin ASG (2023) The environmental impact of AI: a case study of water consumption by Chat GPT. Part. Univers Int Innov. J. 1:97–104. https://doi.org/10.5281/zenodo.7855594

    Article 
    MATH 

    Google Scholar 

  • Geschke D, Lorenz J, Holtz P (2019) The triple-filter bubble: Using agent-based modelling to test a meta-theoretical framework for the emergence of filter bubbles and echo chambers. Br. J. Soc. Psychol. 58:129–149. https://doi.org/10.1111/bjso.12286

    Article 
    PubMed 
    MATH 

    Google Scholar 

  • Gupta R, Nair K, Mishra M et al. (2024) Adoption and impacts of generative artificial intelligence: theoretical underpinnings and research agenda. Int J. Inf. Manag Data Insights 4:100232. https://doi.org/10.1016/j.jjimei.2024.100232

    Article 

    Google Scholar 

  • Haandrikman K, Costa R, Malmberg B et al. (2023) Socio-economic segregation in European cities. A comparative study of Brussels, Copenhagen, Amsterdam, Oslo and Stockholm. Urban Geogr. 44:1–36. https://doi.org/10.1080/02723638.2021.1959778

    Article 

    Google Scholar 

  • Haria V, Shah Y, Gangwar V et al. (2019) The working of Google Maps, and the commercial usage of navigation systems. IJIRT 6:184–191

    MATH 

    Google Scholar 

  • Heckmann R, Kock S, Gaspers L (2022) Artificial intelligence supporting sustainable and individual mobility: development of an algorithm for mobility planning and choice of means of transport. In: Coors V, Pietruschka D, Zeitler B (eds) iCity. Transformative research for the livable, intelligent, and sustainable city. Springer International Publishing, Stuttgart, p 27–40

  • Henning M, Westlund H, Enflo K (2023) Urban–rural population changes and spatial inequalities in Sweden. Reg. Sci. Policy Pr. 15:878–892. https://doi.org/10.1111/rsp3.12602

    Article 
    MATH 

    Google Scholar 

  • Howarth J (2024) Number of parameters in GPT-4 (Latest Data). https://explodingtopics.com/blog/gpt-parameters. Accessed 8 Sep 2024

  • Howe B, Brown JM, Han B, Herman B, Weber N, Yan A, Yang S, Yang Y (2022) Integrative urban AI to expand coverage, access, and equity of urban data. Eur. Phys. J. Spec. Top. 231:1741–1752. https://doi.org/10.1140/epjs/s11734-022-00475-z

    Article 
    PubMed 
    PubMed Central 
    MATH 

    Google Scholar 

  • Jang KM, Chen J, Kang Y, Kim J, Lee J, Duarte F (2023) Understanding place identity with generative AI. Leibniz International Proceedings in Informatics, Leibniz, pp 1–6

  • Kent N (2008) A concise history of Sweden. Cambridge University Press, Cambridge

    Book 
    MATH 

    Google Scholar 

  • Khan I (2024a) The quick guide to prompt engineering. John Wiley & Sons, Newark

    MATH 

    Google Scholar 

  • Khan S (2024b) Cultural diversity and social cohesion: perspectives from social science. Phys. Educ. Health Soc. Sci. 2:40–48

    MATH 

    Google Scholar 

  • Lo Piano S (2020) Ethical principles in machine learning and artificial intelligence: cases from the field and possible ways forward. Humanit Soc Sci Commun 7:1–7. https://doi.org/10.1057/s41599-020-0501-9

  • Luusua A, Ylipulli J, Foth M, Aurigi A (2023) Urban AI: understanding the emerging role of artificial intelligence in smart cities. AI Soc. 38:1039–1044. https://doi.org/10.1007/s00146-022-01537-5

    Article 
    PubMed 

    Google Scholar 

  • Lyu Y, Lu H, Lee MK, Schmitt G, Lim B (2024) IF-City: intelligible fair city planning to measure, explain and mitigate inequality. IEEE Trans. Vis. Comput Graph 30:3749–3766. https://doi.org/10.1109/TVCG.2023.3239909

    Article 
    PubMed 

    Google Scholar 

  • Macrorie R, Marvin S, While A (2021) Robotics and automation in the city: a research agenda. Urban Geogr. 42(2):197–217

    Article 
    MATH 

    Google Scholar 

  • Mahmud HJA (2013) Social cohesion in multicultural society: a case of Bangladeshi immigrants in Stockholm. Dissertation, Stockholm University

  • Marion G (2017) How Culture Affects Language and Dialogue. In: The Routledge Handbook of Language and Dialogue. Routledge, London

  • McNealy JE (2021) Framing and language of ethics: technology, persuasion, and cultural context. J. Soc. Comput 2:226–237. https://doi.org/10.23919/JSC.2021.0027

    Article 
    MATH 

    Google Scholar 

  • McQuire S (2019) One map to rule them all? Google Maps as digital technical object. Commun. Public 4:150–165. https://doi.org/10.1177/2057047319850192

    Article 

    Google Scholar 

  • Mehta H, Kanani P, Lande P (2019) Google Maps. Int J. Comput. Appl 178:41–46. https://doi.org/10.5120/ijca2019918791

    Article 

    Google Scholar 

  • Midjourney (2024) About. www.midjourney.com/home. Accessed 23 Oct 2024

  • Mironenko IA, Sorokin PS (2018) Seeking for the definition of “culture”: current concerns and their implications. a comment on Gustav Jahoda’s article “Critical reflections on some recent definitions of “culture’”. Integr. Psychol. Behav. Sci. 52:331–340. https://doi.org/10.1007/s12124-018-9425-y

    Article 
    PubMed 
    MATH 

    Google Scholar 

  • Mozur P (2017) Beijing wants A.I. to be made in China by 2030. N. Y. Times. https://www.nytimes.com/2017/07/20/business/china-artificial-intelligence.html

  • Murdie RA, Borgegård L-E (1998) Immigration, spatial segregation and housing segmentation of immigrants in metropolitan Stockholm, 1960-95. Urban Stud. Edinb. Scotl. 35:1869–1888. https://doi.org/10.1080/0042098984196

    Article 

    Google Scholar 

  • Musterd S, Marcińczak S, van Ham M, Tammaru T (2017) Socioeconomic segregation in European capital cities. Increasing separation between poor and rich. Urban Geogr. 38:1062–1083. https://doi.org/10.1080/02723638.2016.1228371

    Article 

    Google Scholar 

  • Newell A, Simon HA (1976) Computer science as empirical inquiry: symbols and search. Commun. ACM 19:113–126. https://doi.org/10.1145/360018.360022

    Article 
    MathSciNet 
    MATH 

    Google Scholar 

  • Norocel OC, Hellström A, Jørgensen MB (2020) Nostalgia and hope: intersections between politics of culture, welfare, and migration in Europe, 1st edn. Springer International Publishing, Cham

  • OECD (2019) Artificial Intelligence in Society. OECD Publishing, Paris. https://doi.org/10.1787/eedfee77-en. Accessed 23 Oct 2024

  • OpenAI (2023) https://openai.com/about. Accessed 20 Sep 2024

  • Palmini O, Cugurullo F (2023) Charting AI urbanism: conceptual sources and spatial implications of urban artificial intelligence. Discov Artif Intell 3. https://doi.org/10.1007/s44163-023-00060-w

  • Pariser E (2011) The filter bubble: what the Internet is hiding from you. Viking, London

  • Parker PD, Van Zanden B, Marsh HW, Owen K, Duineveld J, Noetel M (2020) The intersection of gender, social class, and cultural context: a meta-analysis. Educ. Psychol. Rev. 32:197–228. https://doi.org/10.1007/s10648-019-09493-1

    Article 

    Google Scholar 

  • Peng J, Strijker D, Wu Q (2020) Place identity: how far have we come in exploring its meanings? Front Psychol 11. https://doi.org/10.3389/fpsyg.2020.00294

  • Peng Z-R, Lu K-F, Liu Y, Zhai W (2023) The pathway of urban planning AI: from planning support to plan-making. J Plan Educ Res 0. https://doi.org/10.1177/0739456X231180568

  • Phuangsuwan P, Siripipatthanakul S, Limna P, Pariwongkhuntorn N (2024) The impact of Google Maps application on the digital economy. Corp. Bus. Strategy Rev. 5:192–203. https://doi.org/10.22495/cbsrv5i1art18

    Article 

    Google Scholar 

  • Popelka S, Narvaez Zertuche L, Beroche H (2023) Urban AI guide. Urban AI. https://urbanai.fr/

  • Prabhakaran V, Qadri R, Hutchinson B (2022) Cultural incongruencies in Artificial Intelligence. ArXiv Cornell Univ. https://doi.org/10.48550/arxiv.2211.13069

  • Raile P (2024) The usefulness of ChatGPT for psychotherapists and patients. Humanit Soc. Sci. Commun. 11:47–48. https://doi.org/10.1057/s41599-023-02567-0

    Article 

    Google Scholar 

  • Rhodes SC (2022) Filter bubbles, echo chambers, and fake news: How social media conditions individuals to be less critical of political misinformation. Polit Commun 39:1–22. https://doi.org/10.1080/10584609.2021.1910887

  • Robertson RE, Green J, Ruck DJ, et al. (2023) Users choose to engage with more partisan news than they are exposed to on Google Search. Nature 618:342–348. https://doi.org/10.1038/s41586-023-06078-5

  • Rönnblom M, Carlsson V, Öjehag‐Pettersson A (2023) Gender equality in Swedish AI policies. What’s the problem represented to be? Rev. Policy Res 40:688–704. https://doi.org/10.1111/ropr.12547

    Article 

    Google Scholar 

  • Sabherwal R, Grover V (2024) The societal impacts of generative Artificial Intelligence: a balanced perspective. J. Assoc. Inf. Syst. 25:13–22. https://doi.org/10.17705/1jais.00860

    Article 
    MATH 

    Google Scholar 

  • Sanchez TW, Shumway H, Gordner T, Lim T (2023) The prospects of Artificial Intelligence in urban planning. Int J. Urban Sci. 27:179–194. https://doi.org/10.1080/12265934.2022.2102538

    Article 
    MATH 

    Google Scholar 

  • Sareen S, Saltelli A, Rommetveit K (2020) Ethics of quantification: illumination, obfuscation and performative legitimation. Palgrave Commun 6. https://doi.org/10.1057/s41599-020-0396-5

  • Searle J (1980) Minds, brains and programs. In: Collins A, Smith EE (eds) Readings in Cognitive Science. Morgan Kaufmann, San Mateo, p 20–31

  • Sherman S (2023) The polyopticon: a diagram for urban Artificial Intelligences. AI Soc. 38:1209–1222. https://doi.org/10.1007/s00146-022-01501-3

    Article 
    MATH 

    Google Scholar 

  • Sloan RH, Warner R (2020) Beyond bias: Artificial Intelligence and social justice. Va J. Law Technol. 24:1

    MATH 

    Google Scholar 

  • Son TH, Weedon Z, Yigitcanlar T et al. (2023) Algorithmic urban planning for smart and sustainable development: Systematic review of the literature. Sustain Cities Soc. 94:104562. https://doi.org/10.1016/j.scs.2023.104562

    Article 

    Google Scholar 

  • Sun J, Song J, Jiang Y, et al. (2022) Prick the filter bubble: A novel cross domain recommendation model with adaptive diversity regularization. Electron Mark 32:101–121. https://doi.org/10.1007/s12525-021-00492-1

  • Tan L, Luhrs M (2024) Using generative AI Midjourney to enhance divergent and convergent thinking in an architect’s creative design process. Des. J. 27:677–699. https://doi.org/10.1080/14606925.2024.2353479

    Article 

    Google Scholar 

  • Tseng Y-S (2023) Assemblage thinking as a methodology for studying urban AI phenomena. AI Soc. 38:1099–1110. https://doi.org/10.1007/s00146-022-01500-4

    Article 
    MATH 

    Google Scholar 

  • Ullah Z, Al-Turjman F, Mostarda L, Gagliardi R (2020) Applications of Artificial Intelligence and Machine Learning in smart cities. Comput Commun. 154:313–323. https://doi.org/10.1016/j.comcom.2020.02.069

    Article 
    MATH 

    Google Scholar 

  • Verdegem P (2022) Dismantling AI capitalism: the commons as an alternative to the power concentration of Big Tech. AI Soc 1–11. https://doi.org/10.1007/s00146-022-01437-8

  • Weizenbaum J (1984) Computer power and human reason: from judgment to calculation. Penguin, Harmondsworth

    MATH 

    Google Scholar 

  • Wu T, He S, Liu J et al. (2023) A brief overview of ChatGPT: The history, status quo and potential future development. IEEECAA J. Autom. Sin. 10:1122–1136. https://doi.org/10.1109/JAS.2023.123618

    Article 
    MATH 

    Google Scholar 

  • Yigitcanlar T, Corchado JM, Mehmood R, Li RYM, Mossberger K, Desouza KC (2021) Responsible urban innovation with local government Artificial Intelligence (AI): A conceptual framework and research agenda. J. Open Innov. 7:1–16. https://doi.org/10.3390/joitmc7010071

    Article 

    Google Scholar 

  • Zhang Q, Lu J, Jin Y (2021) Artificial Intelligence in recommender systems. Complex Intell. Syst. 7:439–457. https://doi.org/10.1007/s40747-020-00212-w

    Article 
    MATH 

    Google Scholar 

  • Zhang J, Hu C (2023) Adaptive algorithms: users must be more vigilant. Nat Lond 618:907–907. https://doi.org/10.1038/d41586-023-02033-6

  • Continue Reading
    Click to comment

    Leave a Reply

    Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

    Noticias

    Explosión de Cybertruck: Livelsberger usó ChatGPT y envió un correo electrónico al podcast de Shawn Ryan

    Published

    on

    El martes, el FBI dijo que se confirmó que un correo electrónico que parecía haber sido enviado por el sujeto de la explosión del Cybertruck de Las Vegas, Matthew Livelsberger, al destacado podcaster Shawn Ryan, provenía de Livelsberger.

    En una conferencia de prensa, el agente especial a cargo del FBI en Las Vegas, Spencer Evans, aclaró que las autoridades no han verificado el contenido real del correo electrónico de Livelsberger, solo que él lo envió.

    “Hemos confirmado el documento que envió al podcast. Sabemos que él fue quien envió ese documento. Eso es correcto”, dijo Evans a los periodistas.

    “No estamos hablando del contenido”, añadió Evans. “Quiero decir, está hablando de sentir que estaba, ya sabes, vigilado, culpable. Se puede decir que hay, ya sabes, algo de angustia allí, algo de frustración con el gobierno”.

    El soldado de las Fuerzas Especiales del Ejército Matthew Livelsberger con su exnovia Alicia Arritt. (Alicia Arritt vía AP)

    “Quiero decir, hay una gran cantidad de cosas. Así que no hemos entrado en lo que es legítimo y lo que no”, dijo Evans. “Lo único que por precaución, ya que hay acciones del Departamento de Defensa que hablan de fuentes y métodos o algo más que pondría en peligro a personas en el extranjero. Eso no se divulgará. Pero más allá de eso, no hemos examinado ninguno de sus escritos para determinar, ya sabes, qué es legítimo y qué había en su propia cabeza”.

    Tres días antes, Ryan, ex Navy SEAL y agente de la CIA, publicó un episodio de su podcast “The Shawn Ryan Show” entrevistando a Sam Shoemate.

    Shoemate, un oficial de inteligencia retirado del ejército estadounidense que ha conseguido seguidores en línea en torno a contenido militar, dijo que recibió un correo electrónico que decía ser de Livelsberger antes de la explosión del día de Año Nuevo frente al hotel del presidente electo Donald Trump en Las Vegas y, por lo tanto, antes de que las autoridades identificaran públicamente a Livelsberger como el sujeto cuyos restos carbonizados fueron encontrados dentro del Tesla Cybertruck.

    TERRORISTA DE NUEVA ORLEANS, HOMBRE EN LA EXPLOSIÓN DEL CIBERTRUCK DE LAS VEGAS COMPARTIÓ MÁS ENLACES EN ATAQUES CON SOLO UNAS HORAS DE SEPARACIÓN

    Shoemate leyó el correo electrónico en el podcast. En él, Livelsberger teorizó que los supuestos avistamientos de drones en Nueva Jersey eran en realidad “sistemas de propulsión gravitacional” chinos, lo que representaba una amenaza extrema para la seguridad nacional.

    También llamó la atención sobre los ataques aéreos estadounidenses de 2019 en Afganistán que supuestamente causaron importantes víctimas civiles, advirtiendo sobre el riesgo de otra guerra mundial.

    Livelsberger, un boina verde del ejército que fue enviado dos veces a Afganistán y vivía en Colorado Springs, Colorado, expresó su preocupación de que el gobierno federal lo estuviera siguiendo y pidió que lo pusieran en contacto con el podcast de Shawn.

    Shawn detuvo la entrevista para revisar su bandeja de entrada y ver si Livelsberger también escribió al programa. Shawn dijo que sí y luego leyó el correo electrónico de Livelsberger.

    Livelsberger quería que Shawn lo entrevistara en persona o por Zoom para “denunciar nuestras actividades en un lugar determinado”. Dijo que podría hacerlo el 31 de diciembre de 2024, pero que después “se iría”.

    Shawn y Shoemate dijeron que enviaron los correos electrónicos al FBI.

    Cuando se le preguntó por qué la información enviada al podcaster era importante para la investigación de las autoridades, el sheriff de la Policía Metropolitana de Las Vegas, Kevin McMahill, dijo el martes que el correo electrónico habla del estado mental de Livelsberger y su posible intención.

    “Somos muy conscientes de todas las cosas que se dicen en Internet sobre lo que ocurrió y lo que no ocurrió”, dijo McMahill. “Y estamos trabajando muy duro para responder cada una de las preguntas que tenemos”.

    El FBI y la policía de Las Vegas dijeron el martes que más pruebas respaldaban que Livelsberger se suicidó al dispararse y estaba dentro del vehículo cuando explotó. El podcast especuló lo contrario.

    La asistente del sheriff de la Policía Metropolitana de Las Vegas, Dori Koren, muestra una foto de la investigación sobre un Tesla Cybertruck que explotó en el Trump International Hotel durante una conferencia de prensa el martes 7 de enero de 2025. (KM Cannon/Las Vegas Review-Journal vía AP)

    Las autoridades también describieron en la conferencia de prensa cómo Livelsberger supuestamente utilizó inteligencia artificial generativa, incluido ChatGPT, para ayudar a planificar la explosión.

    LA EXNOVIA DEL SOSPECHOSO DE LAS VEGAS COMPARTE TEXTOS DE DÍAS DE ÉL ALCANZANDO DE TESLA CYBERTRUCK: INFORME

    “Creo que este es el primer incidente del que tengo conocimiento en suelo estadounidense donde se utiliza ChatGPT para ayudar a un individuo a construir un dispositivo en particular”, dijo McMahill.

    “Así que, absolutamente, es un momento preocupante para nosotros. Pero también, volviendo a mi último punto, es instructivo para nosotros”, añadió el sheriff. “Nos hemos estado inclinando hacia adelante en la publicación de todos los documentos que podamos, y lo haremos siempre que no ponga en peligro la vida de nadie en el futuro. Así que continuaremos haciéndolo. Pero sí, al 100%. Creo que ChatGPT fue un punto de inflexión para nosotros aquí”.

    Las autoridades mostraron entradas de ChatGPT en la conferencia de prensa que supuestamente Livelsberger realizó para determinar cuántos explosivos se necesitaban.

    En una serie de preguntas, explicó la asistente del sheriff Dori Koren, Livelsberger supuestamente preguntó dónde comprar fuegos artificiales, cuánto comprar y cuál sería la equivalencia con TNT y otros tipos de materiales explosivos. Las otras preguntas de Livelsberger se centraron en la velocidad del disparo de la bala disparada por el arma de fuego y en determinar si eso encendería los explosivos, dijo Koren. Livelsberger también supuestamente preguntó cómo comprar un teléfono sin proporcionar ninguna información de identificación personal.

    En una declaración enviada por correo electrónico, OpenAI dijo que estaba comprometido a que sus herramientas se utilizaran “responsablemente” y que están diseñadas para rechazar instrucciones dañinas.

    Esta foto sin fecha, proporcionada por el Departamento de Policía de Las Vegas, muestra el Tesla Cybertruck involucrado en una explosión afuera del Hotel Trump en Las Vegas. (Departamento de Policía de Las Vegas vía AP)

    “En este caso, ChatGPT respondió con información que ya estaba disponible públicamente en Internet y proporcionó advertencias contra actividades dañinas o ilegales. Estamos trabajando con las autoridades para apoyar su investigación”, dice el comunicado.

    La explosión causó heridas leves a siete personas, pero prácticamente ningún daño al Trump International Hotel. Las autoridades dijeron que Livelsberger actuó solo.

    En la conferencia de prensa, las autoridades también dijeron que descubrieron un documento de seis páginas, o manifiesto, que aún no han publicado porque están trabajando con funcionarios del Departamento de Defensa, ya que parte del material podría ser clasificado.

    Agregaron que todavía tienen que revisar contenidos en una computadora portátil, teléfono móvil y reloj inteligente. Entre los artículos que publicaron el martes se encontraba un diario que Livelsberger llevaba titulado “vigilancia” o registro de “vigilancia”. Demostró que creía que las fuerzas del orden lo estaban siguiendo, pero no tenía antecedentes penales y no estaba en el “radar” del departamento de policía ni del FBI, dijo McMahill.

    Las cartas de Livelsberger abordaban agravios políticos, problemas sociales y cuestiones nacionales e internacionales, incluida la guerra en Ucrania. Escribió que Estados Unidos tenía “una enfermedad terminal y se encaminaba hacia el colapso”.

    Los investigadores habían estado tratando de determinar si Livelsberger quería hacer algún comentario político, dado el Tesla y el hotel que lleva el nombre del presidente electo.

    HAGA CLIC AQUÍ PARA OBTENER LA APLICACIÓN FOX NEWS

    Livelsberger no albergaba ninguna mala voluntad hacia Trump, dijeron funcionarios encargados de hacer cumplir la ley. En una de las notas que dejó, dijo que el país necesitaba “unirse alrededor” de él y del director ejecutivo de Tesla, Elon Musk.

    La Prensa Asociada contribuyó a este informe.

    Continue Reading

    Noticias

    OpenAI apunta a 2025 para el avance de AGI y la fuerza laboral de IA

    Published

    on

    TLDR

    • Sam Altman de OpenAI predice la llegada de AGI y la integración de la fuerza laboral de IA en 2025
    • OpenAI ha crecido a 300 millones de usuarios semanales mientras busca el desarrollo de AGI
    • Los expertos de la industria cuestionan la viabilidad del cronograma y la claridad de la definición de AGI
    • La investigación indica preferencia por la colaboración entre humanos y IA sobre la automatización total
    • El despliegue actual de agentes de IA muestra resultados mixtos y requiere supervisión humana

    El director ejecutivo de OpenAI, Sam Altman, inició el año 2025 con un anuncio que llamó la atención del mundo tecnológico: su empresa cree que ha descifrado el código para lograr la inteligencia artificial general (AGI). La noticia llegó a través de una publicación de blog detallada donde Altman describió el progreso de OpenAI y reveló que la compañía ahora atiende a más de 300 millones de usuarios cada semana.

    El momento de este anuncio se alinea con el reciente hito del segundo aniversario de ChatGPT. La publicación de Altman fue más allá de los logros actuales y hizo una predicción audaz: los agentes de IA podrían comenzar a ingresar a la fuerza laboral dentro de un año, lo que podría remodelar la forma en que operan las empresas.

    Altman escribió con confianza sobre las capacidades de OpenAI: “Ahora estamos seguros de que sabemos cómo construir AGI como la hemos entendido tradicionalmente”. Amplió esto sugiriendo que en 2025 los agentes de IA podrían participar activamente en la fuerza laboral y mejorar el desempeño de la empresa.

    La definición de AGI sigue siendo un punto de debate en la comunidad tecnológica. Si bien se refiere en términos generales a sistemas de IA que combinan la inteligencia humana en diversas tareas, no existe un acuerdo universal sobre qué constituye exactamente AGI. Esta falta de claridad ha llevado a preguntas sobre lo que realmente significan las afirmaciones de Altman.

    Los expertos técnicos han opinado sobre la viabilidad del cronograma de Altman. Charles Wayn, cofundador de la plataforma descentralizada Galxe, expresó sus reservas.

    “Los modelos de IA actuales enfrentan demasiados desafíos técnicos que deben resolverse antes de que podamos lograr una verdadera AGI”, explicó a nuestro equipo.

    El contexto financiero de OpenAI añade otra capa a considerar. La investigación y el desarrollo de IA de la compañía requieren una financiación masiva, lo que lleva a algunos observadores de la industria a sugerir que estos anuncios podrían ayudar a mantener la confianza de los inversores a pesar de los altos costos operativos.

    Mirando más allá de AGI, Altman analizó el objetivo final de OpenAI de lograr la superinteligencia artificial (ASI). “Amamos nuestros productos actuales, pero estamos aquí para un futuro glorioso”, escribió. Si bien OpenAI no ha especificado cuándo podría llegar ASI, algunos investigadores predicen que la IA podría igualar todas las capacidades humanas para 2116.

    El investigador jefe de IA de Meta, Yan Lecun, ofrece una perspectiva diferente y señala que la tecnología actual enfrenta limitaciones fundamentales. Las limitaciones de hardware y los desafíos de la metodología de capacitación sugieren que AGI podría estar más lejos de lo que indica Altman.

    La perspectiva de que los agentes de IA se unan a la fuerza laboral ha provocado diversas respuestas por parte de los líderes empresariales. Harrison Seletsky de SPACE ID compartió su opinión:

    “Los agentes de IA sobresaldrán en tareas rutinarias, pero aún carecen del pensamiento creativo y del juicio que los humanos aportan a la hora de tomar decisiones complejas”.

    Una investigación reciente de la Universidad de la Ciudad de Hong Kong enfatiza la combinación de capacidades humanas y de inteligencia artificial en lugar de reemplazar a los trabajadores por completo. Sus hallazgos sugieren que este enfoque colaborativo conduce a mejores resultados para las organizaciones y la sociedad.

    El impacto de la IA en el mundo laboral en el mundo real ya es visible. Alrededor del 25% de los líderes de empresas expresan interés en utilizar agentes de IA para realizar determinadas funciones laborales. Sin embargo, la experiencia muestra que la supervisión humana sigue siendo esencial, ya que los sistemas de IA todavía tienen dificultades para comprender el contexto y pueden cometer errores inesperados.

    Humayun Sheikh, que dirige Fetch.ai y preside la Alianza ASI, predice un cambio gradual en lugar de una interrupción repentina.

    “Si bien la automatización aumentará, particularmente para las tareas rutinarias, es probable que veamos un cambio en los roles humanos en lugar de un reemplazo total”, señaló en nuestra entrevista.

    Los recientes logros técnicos de OpenAI dan cierta credibilidad a sus afirmaciones. Su último modelo de IA obtuvo una puntuación del 87,5 % en el punto de referencia ARC-AGI, acercándose a lo que los expertos consideran rendimiento a nivel humano. Sin embargo, continúa el debate sobre si estas métricas realmente indican un progreso hacia el AGI.

    La implementación de agentes de IA en los entornos laborales actuales ha producido resultados mixtos. Si bien algunas tareas se pueden automatizar con éxito, las empresas descubren constantemente que necesitan trabajadores humanos para gestionar situaciones en las que la IA se queda corta debido a limitaciones de capacitación o incapacidad para comprender contextos complejos.

    Eliezer Yudkowsky, un destacado investigador de IA, sugiere considerar estos anuncios con cuidadosa consideración. Indica que predicciones tan audaces podrían tener fines promocionales en lugar de reflejar posibilidades técnicas inmediatas.

    Estudios recientes sobre la integración de la IA en el lugar de trabajo revelan patrones interesantes. Las organizaciones que mantienen un equilibrio entre la experiencia humana y las capacidades de IA tienden a obtener mejores resultados que aquellas que buscan una automatización total. Esto sugiere que el futuro podría implicar una mejora en lugar de un reemplazo de trabajadores humanos.

    Los datos de las primeras implementaciones de agentes de IA muestran promesas y limitaciones. Si bien las tareas rutinarias tienen altas tasas de éxito, la toma de decisiones complejas aún requiere participación humana. Este patrón respalda la opinión de que los avances a corto plazo se centrarán en aumentar, en lugar de reemplazar, las capacidades humanas.

    Los analistas de la industria continúan monitoreando el progreso de OpenAI hacia estos ambiciosos objetivos. Si bien el crecimiento y los logros técnicos de la empresa son impresionantes, la brecha entre las capacidades actuales de IA y la verdadera AGI sigue siendo un tema de discusión constante en la comunidad tecnológica.

    0

    ¡Manténgase a la vanguardia del mercado con Benzinga Pro!

    ¿Quieres operar como un profesional? Benzinga Pro le brinda la ventaja que necesita en los mercados acelerados de hoy. Obtenga noticias en tiempo real, información exclusiva y potentes herramientas en las que confían los traders profesionales:

    • Últimas noticias que mueven el mercado antes de que lleguen a los principales medios de comunicación
    • Graznido de audio en vivo para actualizaciones del mercado de manos libres
    • Escáner de acciones avanzado para detectar operaciones prometedoras
    • Ideas comerciales de expertos y soporte bajo demanda

    No dejes escapar las oportunidades. ¡Comience su prueba gratuita de Benzinga Pro hoy y lleve sus operaciones al siguiente nivel!

    Visita Benzinga Pro

    Continue Reading

    Noticias

    ¿La IA reemplazará a los terapeutas? – Semana de noticias

    Published

    on

    La creciente dependencia de ChatGPT para el apoyo a la salud mental está transformando la forma en que las personas afrontan las luchas emocionales.

    Una tendencia creciente en las redes sociales, particularmente en TikTok, presenta a personas que utilizan ChatGPT como herramienta terapéutica. Los usuarios describen compartir sus pensamientos con la IA y recibir comentarios u orientación, y a menudo expresan sorpresa por lo perceptiva y emocionalmente inteligente que parece ser.

    Aunque las plataformas impulsadas por la IA como ChatGPT ofrecen asistencia inmediata las 24 horas del día, lo que las hace convenientes y rentables para la atención de la salud mental, el uso de la IA en la atención de la salud mental plantea desafíos éticos, como preocupaciones sobre la privacidad de los datos, la precisión de su respuestas y el riesgo de que los usuarios se vuelvan demasiado dependientes de la IA.

    Semana de noticias se ha puesto en contacto con expertos en psicología y tecnología para discutir si ChatGPT tiene la capacidad de reemplazar a los terapeutas en un futuro próximo.

    ¿La IA reemplazará a los terapeutas?

    Ilustración fotográfica de Newsweek/Getty

    Del Dr. Daniel Lowd: La IA podría llenar los vacíos donde los terapeutas no están disponibles

    La gente se siente cómoda hablando con la IA desde el chatbot ELIZA, hace 60 años. Las personas también encuentran apoyo para la salud mental escribiendo un diario, haciendo ejercicio, orando, hablando con amigos de confianza y leyendo libros de autoayuda. Si bien nada de eso reemplaza a un buen terapeuta, es difícil encontrar buenos terapeutas. Las esperas son largas, los costos pueden ser elevados y un terapeuta adecuado para una persona puede resultar totalmente equivocado para otra. Entonces, si la gente puede encontrar apoyo y perspectiva hablando con ChatGPT o Claude, entonces creo que es maravilloso.

    Daniel Lowd, profesor asociado del Departamento de Informática y Ciencias de la Información de la Universidad de Oregón.

    Del Dr. Pim Cuijpers: La IA transformará la atención de la salud mental pero no reemplazará a los terapeutas

    No creo que la IA reemplace a los terapeutas. Siempre habrá necesidad de terapia y apoyo humano, y esa necesidad es tan grande que la cantidad de terapeutas no disminuirá debido a la IA.

    Mantuvimos esta discusión en los Países Bajos hace 20 años, cuando los primeros resultados de nuestras intervenciones digitales (no basadas en IA) estuvieron disponibles y demostraron que estas intervenciones eran tan efectivas como los tratamientos cara a cara. Y aunque las herramientas digitales han llegado a la práctica habitual, no hay ningún impacto en el número de terapeutas.

    Pero la IA cambiará la atención de la salud mental. Para algunas personas, un terapeuta de IA será suficiente (incluso preferido por encima de los terapeutas humanos), pero para muchas personas no será suficiente. Pero la IA tendrá impacto de muchas maneras diferentes.

    Se están realizando investigaciones para examinar qué paciente se beneficiará de qué tipo de tratamiento, utilizando el aprendizaje automático (IA). Hay investigaciones sobre evaluaciones ecológicas momentáneas a través de teléfonos inteligentes, también orientadas a mejorar los resultados y utilizando el aprendizaje automático, y hay estudios que utilizan herramientas digitales como complemento a la terapia habitual, como por ejemplo la terapia Avatar en los trastornos psicóticos.

    Por tanto, ninguna IA sustituirá a los terapeutas, pero sí cambiará y mejorará considerablemente la atención de la salud mental.

    Dr. Pim Cuijpers, Profesor emérito, Departamento de Psicología Clínica, Neuro y del Desarrollo, Universidad Vrije de Ámsterdam.

    Del Dr. Richard Lachman: Depender de la IA para la salud mental podría afectar a las personas jóvenes y vulnerables

    Los chatbots de IA responderán como terapeutas si se les solicita, sin la supervisión, capacitación o responsabilidad de un consejero humano o incluso de un software especializado y probado.

    Esta disposición para abordar temas sin experiencia es una debilidad importante tanto en los LLM como en la naturaleza de la interfaz conversacional: dan la ilusión de comprensión y competencia a través de una fluidez fácil y un afán conversacional por complacer, afinado por el aprendizaje reforzado y las respuestas humanas. .

    Ya hemos visto interacciones inseguras y poco saludables con personas en crisis a través de chatbots centrados en las relaciones y, a medida que se vuelvan más parte de nuestro panorama de interacción, esto solo aumentará.

    La facilidad de acceso y un costo radicalmente más barato también pueden llevar a las organizaciones a financiar chatbots de IA en lugar de participar en los cambios sistémicos a largo plazo necesarios para poner a disposición terapeutas humanos calificados, responsables y gobernados éticamente. Es probable que esto afecte a los jóvenes y a los segmentos vulnerables de la sociedad que tal vez no tengan los recursos financieros o los medios para defenderse por sí mismos.

    Dr. Richard Lachman, profesor asociado, producción de medios y director, aprendizaje de zona y director, investigación y desarrollo de tecnología creativa, Universidad Metropolitana de Toronto.

    Del Dr. Ben Levinstein: La IA podría influir en el desarrollo de la salud mental en el futuro, si se utiliza con precaución

    La cuestión de si la IA reemplazará a los terapeutas no es un simple sí o no; más bien, se trata de comprender cómo la IA transformará el panorama de la atención de salud mental.

    Si bien algunos pacientes seguirán prefiriendo terapeutas humanos, valorando los aspectos de la conexión humana, otros pueden gravitar hacia los sistemas de inteligencia artificial, encontrándolos más accesibles y sintiéndose más cómodos compartiendo sus luchas más profundas sin temor al juicio humano.

    El costo dramáticamente menor de la terapia con IA, combinado con su disponibilidad constante y la eliminación de las listas de espera, probablemente acelerará este cambio, particularmente porque las compañías de seguros reconocen el potencial para mejorar los resultados y reducir los gastos.

    Es probable que el campo de la salud mental se desarrolle en múltiples direcciones simultáneamente. Algunas prácticas pueden adoptar enfoques híbridos, donde la IA maneja las evaluaciones iniciales y brinda apoyo entre sesiones mientras los terapeutas humanos se concentran en el trabajo terapéutico central.

    Otros servicios podrían estar totalmente impulsados ​​por la IA, sobre todo a medida que estos sistemas se vuelven cada vez más sofisticados en su capacidad para comprender la psicología humana y desarrollar planes de tratamiento. En psiquiatría, si bien la adopción temprana de la IA podría centrarse en casos de rutina, los avances en los sistemas de IA probablemente superarán las capacidades humanas para manejar incluso los desafíos más complejos de diagnóstico y gestión de medicamentos, lo que podría llevar a que la IA se convierta en el principal proveedor de atención psiquiátrica.

    Sin embargo, el auge de la terapia con IA también plantea serias preocupaciones. Una cuestión crítica es la “compra de terapeutas”, donde los pacientes buscan terapeutas que simplemente validen sus puntos de vista existentes en lugar de brindarles un trabajo terapéutico desafiante pero necesario.

    Este problema, que ya está presente en los terapeutas humanos, podría amplificarse con sistemas de IA, ya que los pacientes podrían cambiar fácilmente entre diferentes modelos de IA hasta encontrar uno que les diga lo que quieren escuchar.

    Además, existen complejas cuestiones éticas y legales sobre cómo los sistemas de IA manejarían situaciones que involucran ideas suicidas o requisitos de presentación de informes obligatorios. Si bien estos desafíos no impedirán que la IA revolucione la atención de salud mental, deberán abordarse cuidadosamente a medida que el campo evolucione.

    Dr. Ben Levinstein, profesor asociado de la Universidad de Illinois, Urbana-Champaign, Departamento de Filosofía.

    Del Dr. Randy Goebel: Los humanos seguirán siendo irremplazables como terapeutas a pesar del auge de la IA

    La realidad es que los humanos seguirán siendo los mejores terapeutas humanos en el futuro previsible, aunque la clasificación tipo chatbot seguirá proporcionando cierto acceso gradual a consejeros reales. Es probable que la proliferación de información errónea y errónea, acelerada por los sistemas de inteligencia artificial, haga que la necesidad de asesoramiento sobre salud mental sea aún más intensa que antes.

    Como es habitual, los sistemas público y privado responderán de diferentes maneras, pero no antes de que haya muchas consecuencias negativas.

    Dr. Randy Goebel, Profesor de Ciencias de la Computación y Profesor Adjunto de Medicina, Universidad de Alberta.

    Del Dr. John Torous: La IA apoyará, no reemplazará, a los terapeutas

    La IA no reemplazará a los terapeutas. En las últimas décadas, hemos tenido muchos libros, CD-ROM, sitios web y aplicaciones excelentes de terapia de autoayuda. No han reemplazado a los terapeutas. La IA puede hacer muchas cosas maravillosas, pero la gente quiere conectarse con otras personas para realizar terapia. Sin embargo, la IA desempeñará un papel a la hora de mejorar la terapia haciéndola eficaz e impactante.

    Un peligro de la IA es que veremos una ola inicial de personas sin formación ni licencia que tal vez afirmen ser terapeutas y ofrezcan terapia. Usar IA no significa que cualquiera pueda actuar como terapeuta, al igual que usar un simulador de vuelo no significa que cualquiera pueda actuar como piloto. Siempre es bueno preguntar a cualquier terapeuta sobre sus credenciales, experiencia y formación, y hoy más que nunca.

    Dr. John Torous, Director de Psiquiatría Digital, Centro Médico Beth Isreal Deaconess, Profesor Asociado de Psiquiatría, Facultad de Medicina de Harvard

    Continue Reading

    Trending