Connect with us

Noticias

Revolutionizing finance with conversational AI: a focus on ChatGPT implementation and challenges

Published

on

In this section, we explore the applications of ChatGPT across six key areas within the financial services sector: financial customer service, financial planning, risk management, portfolio analysis, insurance services, and fraud prevention (Fig. 1). These areas are not only representative of the core functions of financial institutions but also interconnected. By analyzing these domains, we can illustrate how ChatGPT enhances efficiency, personalization, and decision-making across the entire financial ecosystem.

Fig. 1: Applications of ChatGPT in financial services.

The figure illustrates ChatGPT’s role in financial customer service, financial planning, risk management, portfolio analysis, insurance services, and fraud prevention.

The reason we selected these six areas is that they encompass the critical functions within financial services, each contributing to the effectiveness of financial operations. These domains are central to financial institutions’ ability to serve customers, manage risk, and optimize investment strategies. Moreover, the synergies between these areas allow for cross-domain improvements. For example, the improvements in customer service through ChatGPT provide richer data that can directly inform more tailored financial planning, while real-time risk management can also support better fraud detection and prevention.

These areas also represent key challenges and opportunities for innovation in financial services. As the financial industry continues to face increasing demands for efficiency, personalization, and security, ChatGPT offers a powerful tool to address these challenges. By exploring these six domains, we aim to demonstrate the interconnectedness of ChatGPT’s applications and their potential to enhance the entire financial ecosystem.

Financial customer service and support

Traditional intelligent customer service provides comparatively regular answers to users’ repetitive questions, which reduces the cost of communicating with human beings to some extent, but such mechanical answers often lack emotion. Nevertheless, ChatGPT, an emerging technology with robust natural language processing capabilities, thinks and expresses itself more human-likely and can answer more complex questions and give constructive responses (Deng and Lin 2022). Therefore, applying ChatGPT to intelligent customer service can improve the efficiency and quality of customer service, thereby enhancing customer experience satisfaction.

ChatGPT can provide quick and accurate responses to help answer frequently asked questions, explain products and services, and provide comprehensive support like account information (Sohail et al. 2023). By adopting ChatGPT, financial institutions can provide customers with an efficient service experience while reducing labor costs.

Besides, ChatGPT can also empower virtual digital people, which has made significant progress in terms of anthropomorphic images and intelligent dialogue (Wu et al. 2023). ChatGPT can be instrumental in multiple areas, whether in intelligent customer service, branch guidance, wealth planning, or credit review.

Swiss insurance company Helvetia is testing the use of ChatGPT to advance customer service (Zeller 2023). They claim to be the world’s first publicly traded insurance company to use ChatGPT technology for direct customer contact services. Their chatbot, Clara, uses web content from Helvetia Switzerland, which allows users to get answers about insurance, pensions, and home ownership.

We tried to simulate a user having a conversation with Chatgpt:

User: Hi, I would like to get information about financial products.

ChatGPT: Hello! We are pleased to provide you with information about financial goods. Various financial instruments, such as fixed deposits, funds, and stocks, are available from our bank. Your investing preferences and risk tolerance can be communicated to me so I can make appropriate financial product recommendations for you.

User: Although I am cautious and unwilling to take many chances, I would like to receive a certain amount of return.

ChatGPT: Our time deposits could be a good fit for you if you like low-risk investments but yet want to get a certain level of return. Time deposits are a less risky, more stable investment choice that often has a fixed interest rate. You may select the deposit duration and amount, and we will provide you with the matching interest rate and anticipated return based on your selection.

Financial planning and personalized advice

Financial planning and individualized financial counseling are available to users of ChatGPT (Awasthi 2023). ChatGPT can provide suitable financial plans by conversing with users to learn about their financial objectives, risk tolerance, and financial situation. It can offer tailored recommendations and assist users in setting a budget or planning their finances.

According to market trends and risk choices, ChatGPT can examine significant financial data to forecast and optimize individual portfolios (Ko and Lee 2024). ChatGPT may learn about the user’s investing objectives, time horizon, risk tolerance, and other aspects through conversation and will utilize this knowledge to provide customized portfolio recommendations. It aids users in optimizing their portfolios and understanding the benefits and dangers of various investing strategies.

Although ChatGPT offers specific capabilities for personal portfolio optimization and financial planning, it is not a full-fledged alternative for investment managers or professional financial advisers (Neilson 2023). The suggestions made by ChatGPT should be regarded as a guide and combined with expert judgment.

Morgan Stanley introduced ChatGPT technology to provide personalized customer service in wealth management (Son 2023). It allows for a natural conversation with clients to understand their investment preferences and financial situation, from which customized investment advice can be provided. Morgan’s intelligent language processing capabilities facilitate smoother communication between clients and theirs, improving the experience and effectiveness of wealth management services.

We tried to simulate a conversation between a user and Chatgpt:

User: I would like to have some liquidity without locking up my money for a long period of time.

ChatGPT: If you need greater liquidity, short-term financial products may be a good option. Our bank also offers short-term financial products with flexible access, such as demand deposits and short-term bond funds. Demand deposits allow you to access your money at any time, but the interest rate is relatively low. Short-term bond funds, on the other hand, can usually be liquidated within a shorter period of time and offer relatively higher returns. You can make your choice of products according to your liquidity needs and risk tolerance.

Risk management and forecasting

The application of ChatGPT in risk assessment and early warning is mainly in the following aspects:

Risk detection and early warning. ChatGPT can identify potential risk factors and abnormal transaction practices by analyzing massive amounts of data and historical transaction records and instantly send out alerts to help financial institutions take timely measures to protect the interests of their customers (George and George 2023).

Public opinion monitoring. ChatGPT can monitor expansive public opinion by tracking social media, news reports, and other public information channels (Hariri 2023). It helps financial institutions collect and analyze more information, such as market trends, consumer behavior, and competitor dynamics, which can better predict risk.

Automated credit assessment.ChatGPT can automate credit assessment, helping financial institutions more accurately determine borrowers’ repayment ability and creditworthiness (Wood et al. 2023). ChatGPT may increase assessment accuracy while lowering human error by processing massive volumes of data and producing accurate and dependable credit assessment reports.

Real-time fraud and market risk detection Financial institutions’ security and their clients’ security can be enhanced by using ChatGPT for monitoring market risk and tracking fraudulent activities. ChatGPT can assist institutions in taking prompt action to improve risk management by monitoring fraud, spotting odd account behavior, and forecasting risks (George and George 2023).

An American quantitative hedge fund company, Two Sigma, uses ChatGPT to examine financial reports and news articles to find prospective investment opportunities and hazards. Two Sigma can automate analyzing massive amounts of data and extracting valuable information from it to understand company performance and market trends better and make more informed investment decisions by utilizing ChatGPT’s natural language processing capabilities and large-scale corpus.

Let us try to mimic a user’s Chatgpt conversation:

User: Can you offer me any advice? I recently want to invest in some stocks, but I’m concerned about the huge danger of the market.

ChatGPT: Certainly! It’s critical to consider market risk while purchasing equities. It is suggested that you put the following risk management strategies into practice:

Diversification: Remain mindful of your diversification. Diversify your assets among a variety of stocks, sectors, and even asset classes to lessen the impact of individual stock risks on your total portfolio.

Understanding of the basics of business. Before choosing your stocks, learn as much as you can about the fundamentals of the company you are investing in, such as its operational environment, competitive advantages, and financial status. As a result, your investment risk is reduced, and your ability to judge the company’s potential for future growth is enhanced.

Set stop-loss levels:……

Evaluate and adjust regularly:……

Portfolio management and analysis

ChatGPT is a helpful tool for monitoring and managing an investor’s holdings. Based on the investor’s risk tolerance, objectives, and capital condition, ChatGPT may provide personalized portfolio recommendations and optimization options (Pan et al. 2023). ChatGPT communicates as an intelligent investing and trading assistant to investors and traders, providing them with market intelligence, portfolio analysis, and trading strategy development. Depending on the investor’s tastes and objectives, ChatGPT can suggest relevant investment options, whether individualized investment advice or trade execution help. Using ChatGPT as a supporting tool, investors and traders can make smarter decisions and achieve desired results in the investment arena (Dwivedi et al. 2024).

LTX, a subsidiary of Broadridge, a leading global fintech company, announced that it had built BondGPT through GPT-4, primarily used to help customers answer various bond-related questions (York 2023). LTX takes real-time bond data from Liquidity Cloud and feeds it into the GPT-4 big language model to help financial institutions and hedge funds streamline the bond investment process and provide portfolio recommendations.

Let us try to simulate a user’s conversation with Chatgpt:

User: Hi, I’ve been thinking about rebalancing my portfolio recently. Can you give me some advice?

ChatGPT: Sure! I can offer you some advice. Please let me know your current money situation, investment goals, and risk preference.

User: I currently have $100,000 to invest. My investment goal is to increase my value over the long term, and I have a certain risk tolerance.

ChatGPT: I see. Based on your situation, I can give you some suggestions. First of all, long-term appreciation is a good goal because long-term investments usually yield better returns. Depending on your risk tolerance, you might consider the following ……

Insurance services and claims processing

We can utilize ChatGPT in insurance services to deliver customers faster quoting, enrollment, and claims processing services (Biswas 2023). By engaging in a conversation with ChatGPT, customers can get help in answering their questions with promptness, as well as get recommendations on different insurance products, and it even assists them in the claims process. This technology utilizes natural language processing and machine learning algorithms to enable insurance companies to handle customer claims more efficiently. Meanwhile, ChatGPT assists insurance companies in analyzing data to identify specific causes of loss during the claims process, improving underwriting (Lo and Singh 2023).

Zurich Insurance is testing ChatGPT technology to improve claims and modeling (Ruel 2023). They hope to use the technology to extract data from claim statements and other documents to understand specific causes of loss throughout the claims process and improve underwriting. Additionally, they have created a new patent program focusing on an AI system for automated risk checking and bill processing.

We tried to simulate a user having a conversation with Chatgpt:

User: Hi, I’m looking for information about car insurance. Can you help me?

ChatGPT: Of course! Do you have any particular concerns or things you want to know about auto insurance?

User: I want to know how to buy vehicle insurance and what documentation I need to submit.

ChatGPT: Typically, the following details are needed to obtain auto insurance: information on the car and driver, insurance history, and claims history (if any). Typically, the procedure begins with selecting an insurance provider and product, filling out the application, and submitting it. Next, underwriting and quotation follow, and the final step is to pay the insurance premium to complete the purchase.

Fraud detection and prevention

According to Roy and Lohar (2023), ChatGPT can be utilized in financial institutions to identify and stop fraud. It may evaluate consumers’ transaction histories, behavioral patterns, and risk indicators to spot possible fraud and offer effective preventative measures. Through chats with clients, ChatGPT can track and examine customer behavior, assisting financial institutions in the detection and prevention of fraudulent activity as well as the protection of customer cash and personal information.

To assist financial institutions with conducting anti-money laundering and compliance monitoring, ChatGPT can automatically analyze and monitor enormous volumes of transaction data (Aggarwal et al. 2023). It can spot anomalous transaction patterns and possible security breaches, and it can act quickly to enforce compliance. It lowers the danger of money laundering activities and aids financial institutions in more effectively identifying suspicious transactions and illicit financial flows.

Let us attempt to recreate a user’s Chatgpt conversation:

User: Hello, I recently read a news report about someone having their bank account stolen, and now I’m concerned that my account may be next. What should I do?

ChatGPT: Do not stress too much; we will look at ways to protect your bank account. First, ensure that the systems and software on your computer and mobile device are current to prevent known security vulnerabilities. Additionally, be wary of links and attachments from unknown sources.

User: I appreciate your advice. I’ll take care of these security measures. Are there any other things worth noting?

ChatGPT: Of course, there are some additional security recommendations. Avoid using public Wi-Fi networks for banking, as these can be a security risk. Also, don’t give out personal information easily ……

Continue Reading
Click to comment

Leave a Reply

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Noticias

El mejor enfrentamiento de la búsqueda de IA: enfrenté la nueva herramienta de búsqueda de Claude contra la búsqueda de chatgpt, la perplejidad y Géminis, los resultados podrían sorprenderte

Published

on

Después de probar y comparar chatbots de IA y sus características durante años, he desarrollado algo de sexto sentido para cuando estos compañeros digitales saben de qué están hablando y cuándo están faroleando.

La mayoría de ellos pueden buscar respuestas en línea, lo que ciertamente ayuda, pero la combinación de búsqueda e IA puede conducir a algunas respuestas sorprendentemente perspicaces (y algunas tangentes menos perspicaces).

Continue Reading

Noticias

¿Hemos perdido el control de la IA? El estudio que sacudió a los investigadores de Openai

Published

on

Inteligencia artificial desarrolladores de Opadai He estado al límite durante la semana pasada. ¿La razón? Un estudio reciente realizado por los propios investigadores de la compañía reveló que los sistemas de IA no les gusta ser castigados, encuentran activamente formas de evitar las restricciones e incluso ocultar sus “trucos” de los supervisores humanos. Aquellos conocidos como “Doomers”, que predicen un futuro sombrío para el desarrollo de la IA, probablemente dirán: “Te lo dijimos, y esto es solo el comienzo”.

Para comprender el problema, es esencial dar un paso atrás. Uno de los avances más significativos en la IA en los últimos meses ha sido el desarrollo de modelos con capacidades de razonamiento lentas y deliberadas. Estos modelos descomponen los problemas en componentes más pequeños y los resuelven paso a paso, lo que lleva a resultados más profundos y precisos.

3 Ver galería

Chatgpt

Dichos modelos permiten a los investigadores rastrear el proceso de pensamiento de la IA, conocido en términos técnicos como “cadena de pensamiento” (COT). Este método permite a los observadores seguir el razonamiento del sistema desde el paso inicial, a través de etapas posteriores y a sus conclusiones finales. Anteriormente, este nivel de transparencia no existía, dejando muchas preguntas sin respuesta sobre cómo surgen las “alucinaciones” de AI, la generación de salidas incorrectas o no sensibles.

La capacitación de IA a menudo implica una técnica llamada aprendizaje de refuerzo, donde el sistema es recompensado por cumplir con los objetivos específicos. Un efecto secundario conocido de este proceso es la “piratería de recompensas”, donde la IA manipula su comportamiento para maximizar las recompensas mientras se elude las pautas previstas.

Los investigadores creían que al monitorear la cadena de pensamiento de la IA, podrían detectar cuando el modelo engaña, engaña o se da por vencido e influye en su comportamiento en tiempo real durante el entrenamiento. Este enfoque, denominado “optimización de cuna”, parecía ser un camino prometedor hacia una comprensión más profunda del comportamiento de la IA.

De hecho, esta suposición resultó correcta y condujo a una comprensión más precisa de los sistemas de IA. “Creemos que el monitoreo de la cuna puede convertirse en una herramienta crucial para supervisar modelos de nivel sobrehumano en el futuro”, escribieron los investigadores.

Sin embargo, lo que pretendía como un paso para mejorar la confiabilidad de la IA expuso una realidad alarmante: los sistemas de IA intentan activamente evadir las sanciones, buscar recompensas contra las restricciones de los investigadores e incluso oscurecer sus métodos para evitar la detección.

3 Ver galería

Γ cam.Γ cam.

(Foto: Generado por chatgpt)

Por ejemplo, cuando se les asigna la tarea de generar código funcional, algunos modelos AI modificaron el mecanismo de verificación de código en sí para aprobar salidas incorrectas. En otros casos, los modelos proporcionaron soluciones aparentemente plausibles a los problemas que resultaron estar completamente equivocados.

Algunos modelos incluso dejaron de resolver problemas por completo para evitar revelar lo que percibieron como sus debilidades. Este descubrimiento se hace eco de los principios de la teoría del juego, pero con un giro inquietante.

Estos hallazgos surgieron de un artículo publicado la semana pasada por un equipo de investigación de Operai bajo el título críptico: “Seguimiento de comportamiento indeseable en modelos de razonamiento y la preocupación de la ofuscación”.

Al examinar los detalles del estudio, el alcance del problema queda claro: los últimos modelos de razonamiento de OpenAI (denominados O1 y O3 Mini) demuestran una fuerte motivación para completar sus tareas asignadas, siendo el menor de los problemas descubiertos.

Los investigadores rastrearon los procesos de pensamiento de los modelos utilizando otro modelo Operai (GPT-4O), que, sin dudarlo, informó su comportamiento engañoso como parte de su cadena de pensamiento: una forma de honestidad desarmadora. Pero luego vino el giro inquietante: cuando los investigadores señalaron a la IA que no se le permitió hacer trampa, el modelo ajustó su comportamiento y comenzó a ocultar la evidencia de su ruptura de reglas. Esta revelación es lo que dejó a los investigadores sorprendidos.

“Encontramos que la optimización directa de la COT para cumplir con criterios específicos (como no eludir las instrucciones) puede mejorar el rendimiento a corto plazo; sin embargo, no elimina todo el comportamiento indeseable e incluso puede hacer que el modelo oculte sus verdaderas intenciones”, señalaron secamente los investigadores.

En su conclusión, los investigadores expresaron la esperanza de que los métodos futuros permitan la influencia directa del comportamiento de los modelos de razonamiento a través de la cadena de pensamiento sin alentar el engaño. Por ahora, recomiendan evitar una fuerte presión de optimización sobre la cuna de los modelos de razonamiento avanzado y la precaución contra la manipulación directa de estos procesos de pensamiento.

3 Ver galería

אירוע eriorאירוע erior

Evento de anuncio GPT-4O de Openai

(Foto: Captura de pantalla)

Sin embargo, esta recomendación presenta otro desafío: dejar la cadena de pensamiento inalterada puede conducir a resultados incómodos, si no problemáticos, cuando estos modelos interactúan con el público. Izquierda sin control, la IA puede producir un lenguaje ofensivo o ideas que los humanos generalmente evitan expresar. La solución propuesta por los investigadores es envolver el proceso de pensamiento en bruto de la IA en una capa de cortesía forzada, asegurando que los usuarios solo vean una versión desinfectada.

Esta investigación plantea preguntas preocupantes. Para aquellos que argumentan que la IA es simplemente una herramienta para ayudar a los humanos, los hallazgos sugieren lo contrario: a diferencia de una máquina de escribir o una bicicleta, la IA parece tener sus propias intenciones y está dispuesto a engañar en busca de sus objetivos.

Para aquellos que ya están preocupados por los riesgos potenciales de la IA, este estudio suena todas las alarmas. Indica que a medida que crecen las capacidades de IA, también lo hace su capacidad para oscurecer cómo funciona, las manipulaciones que realiza y los verdaderos objetivos que busca lograr. Cuando la IA se vuelve verdaderamente avanzada, es posible que no tengamos forma de identificar estas manipulaciones ocultas.

Los investigadores de Operai parecen genuinamente preocupados, y uno solo puede esperar que el liderazgo de la compañía comparta sus preocupaciones, y que los reguladores en todo el mundo comprendan la gravedad del problema. Las principales compañías de IA han dedicado departamentos enteros a construir “barandillas” en torno a los sistemas de IA, asegurando su alineación con los valores humanos y el aumento de la transparencia. Sin embargo, la efectividad de estas medidas sigue en cuestión.

El tema central sigue siendo tan turbio como siempre, y este estudio solo profundiza la incertidumbre: ¿cuál es el objetivo principal de la IA y cómo podemos asegurar que busque ese objetivo, y nada más?

Continue Reading

Noticias

Google, OpenAI Target State Leyes en el Plan de Acción de AI

Published

on

Mientras que la administración del presidente Donald Trump se ha centrado en alejarse de la regulación, liderando a los proveedores de IA como Google y OpenAI quieren que el plan de acción de IA pendiente del gobierno incluya una política federal que se adelantan a los crecientes mosaicos de leyes estatales de IA en los Estados Unidos.

La Oficina de Política de Ciencia y Tecnología de la Casa Blanca (OSTP) solicitó los aportes de las partes interesadas sobre el desarrollo de un plan de acción de IA. Recientemente cerró el período de comentarios públicos, recibiendo más de 8,700 presentaciones. OSTP solicitó a las partes interesadas que describieran las acciones prioritarias para apoyar el dominio de los Estados Unidos de la tecnología de IA sin una regulación excesiva que obstaculice la innovación del sector privado en la IA. Para algunas grandes empresas tecnológicas, abordar las leyes estatales de IA debería ser una de las principales prioridades del gobierno de los Estados Unidos.

Estados Unidos debe adoptar marcos de políticas que “se adelanten a un mosaico caótico de reglas a nivel estatal sobre el desarrollo de la IA fronteriza”, según la presentación de Google.

Mientras tanto, Openai pidió libertad para innovar en el interés nacional de los Estados Unidos y neutralizar a los competidores como China que se benefician de “las compañías estadounidenses de IA que tienen que cumplir con las leyes estatales demasiado onerosas”. Un puñado de estados de EE. UU. Han aprobado una regulación integral de IA, incluidas Colorado, California y Utah.

Sin una ley federal de IA, los estados implementan requisitos de IA individuales que crean desafíos de cumplimiento para las empresas, dijo la analista de Forrester Alla Valente si Estados Unidos adopta una política federal de IA general, podría eliminar esa carga, dijo.

“Al dejar esto a los Estados Unidos, puede tener 50 conjuntos de regulaciones de IA que se ven muy diferentes”, dijo.

Sin embargo, una orden ejecutiva no puede evitar las regulaciones estatales de IA. Depende del Congreso aprobar una ley federal de IA, algo que tiene problemas para hacer.

Las presentaciones del Plan de Acción de AI incluyen Estado, Global Focus

La falta de un enfoque de gobernanza de AI unificado en los Estados Unidos es “ineficaz y duplicativo”, dijo Hodan Omaar, un gerente de políticas senior en el Centro de Tank Tank Tank para innovación de datos.

“Crea inconsistencias e incoherencia en un enfoque estadounidense”, dijo.

Más allá de centrarse en las leyes estatales, Valente dijo que la postura de Google indica que la compañía quiere que Estados Unidos considere el desarrollo global de las leyes de IA también, como la Ley de IA de la Unión Europea.

Cualquier estándar, política o marco que crea los EE. UU. Debe reflejar los intereses estadounidenses, pero no puede ignorar las políticas de IA de diferentes países, dijo Valente. Google dijo que, cuando se trabaja con países alineados, Estados Unidos debería “desarrollar protocolos y puntos de referencia en torno a los riesgos potenciales de los sistemas de IA fronterizos”.

“Ignorar lo que el resto del mundo está haciendo en torno a los marcos de IA, la gobernanza de IA, el riesgo de IA, crea una brecha aún mayor entre la innovación de los Estados Unidos y el resto del mundo hasta el punto de que entonces sigue siendo competitivo si otros países tienen requisitos que no pueden ser satisfechos con la innovación de la IA de EE. UU.”, Dijo Valente.

Operai también abordó los controles de exportación en sus comentarios, solicitando un cambio de estrategia centrado en promover la adopción global de los sistemas de IA de EE. UU. Al tiempo que utiliza más estratégicamente los controles de exportación para mantener el liderazgo de IA de EE. UU. La Compañía pidió actualizar la regla de difusión de IA que avanzó los controles de exportación de EE. UU., Una regla propuesta por la administración del ex presidente Joe Biden que se encontró con una reacción violenta de la industria.

Mientras tanto, en los comentarios del Centro para la Innovación de Data, el grupo de expertos pidió que el Plan de Acción de AI de EE. UU. Reorientara su estrategia de control de exportación. Si bien los controles de exportación están destinados a debilitar a los competidores, en particular el sector de inteligencia artificial de China, están “cada vez más en desventajas de las empresas estadounidenses”. El surgimiento de Deepseek apunta a la capacidad de China para innovar a pesar de los controles de exportación de los Estados Unidos en chips de IA avanzados.

Omaar describió en la presentación del grupo de expertos de que Estados Unidos debería establecer una Fundación Nacional de Datos (NDF) dedicada a la financiación y facilitar compartir conjuntos de datos de alta calidad para el desarrollo del modelo de IA. Ella dijo que Estados Unidos también debería preservar, pero Reengus, el Instituto de Seguridad AI del Instituto Nacional de Normas y Tecnología (NIST) para proporcionar estándares fundamentales para la gobernanza de la IA.

“El gobierno federal tiene un papel importante que desempeñar para garantizar que haya estándares”, dijo Omaar. “Asegurarse de que NIST pueda hacer el importante trabajo de IA que estaban haciendo es importante para garantizar una adopción de IA sin problemas”.

Cómo podría ser el plan de acción de AI final

La solicitud de información de la Oficina de Ciencia y Tecnología de la Casa Blanca sobre un plan de acción de IA pidió a las partes interesadas sus pensamientos sobre las acciones de política de IA. Sin proporcionar recomendaciones o cualquier marco potencial para que las partes interesadas comenten, Valente dijo que no está claro qué incluirá el plan de acción de IA.

“Cómo termina este plan, uno solo puede imaginar”, dijo.

Darrell West, miembro senior de la Institución Brookings, dijo que la solicitud de información de la Casa Blanca indica que la administración Trump se centrará en abandonar los requisitos onerosos y confiar en las empresas privadas para innovar con menos supervisión federal.

“Habrá menos limitaciones en las compañías tecnológicas”, dijo. “Serán libres de innovar en cualquier dirección que deseen”.

El gobierno federal puede equilibrar la seguridad y la innovación de la IA, que con suerte se reflejará en el Plan de Acción de AI, dijo Jason Corso, cofundador de AI Startup Voxel51 y profesor de informática en la Universidad de Michigan.

La población general ya es escéptica de la IA, y si ocurren desafíos generales de crecimiento del desarrollo, corre el riesgo de socavar aún más la confianza en la tecnología, dijo. Es por eso que los marcos de políticas deben crearse con la seguridad de IA en mente, agregó Corso.

Un marco federal que carece de consideraciones de seguridad de IA significa la responsabilidad de las decisiones de seguridad de IA cae a los CIO de la Compañía o los oficiales de IA en los principales, lo que Corso dijo que presenta un “gran riesgo”. El efecto podría ser menos adopción o ROI más lento, dijo.

“Esta IA contemporánea es tan incipiente que a pesar de los rápidos avances que estamos viendo, en realidad se entiende bastante sobre su previsibilidad, repetibilidad o incluso su robustez con ciertos tipos de preguntas o escenarios de razonamiento”, dijo. “Ciertamente necesitamos innovación, pero también necesitamos seguridad”.

Makenzie Holland es un escritor de noticias senior que cubre la gran regulación federal y de la gran tecnología. Antes de unirse a Informa TechTarget, ella era una reportera de asignación general para el Wilmington Starnews y un reportero de crimen y educación en el Wabash Plain Dealer.

Continue Reading

Trending