Este tema me ha parecido muy interesante: al mismo tiempo que empiezan a surgir investigaciones que apuntan a la disrupción que las capacidades analíticas de la inteligencia artificial supone para los mercados financieros y el análisis de valores, aparentemente capaces de superar claramente cualquier análisis llevado a cabo por un analista humano (¿hace falta recordar aquello del mono con los ojos vendados que tiraba dardos sobre una pared?), aparece la Secretaria del Tesoro de los Estados Unidos, Janet Yellen, y advierte sobre la misma cuestión en una conferencia.
Las advertencias de Yellen, pronunciadas durante una conferencia sobre IA y estabilidad financiera ante el Consejo de Supervisión de Estabilidad Financiera y la Brookings Institution, tienen que ver con varios factores y atributos de los algoritmos de inteligencia artificial:
- Complejidad y Opacidad: los modelos de inteligencia artificial pueden ser sumamente complejos y poco transparentes, lo que puede plantear desafíos de comprensión y gestión tanto a sus usuarios, como a los inversores y a los propios mercados.
- Gestión de Riesgos Inadecuada: es muy posible que no existan todavía marcos conceptuales, legales y de responsabilidad suficientes para abordar los posibles riesgos asociados con la inteligencia artificial aplicada a los mercados financieros, así como las responsabilidades en las que incurre cada parte.
- Dependencia de Modelos Uniformes: muchas entidades del mercado podrían llegar a depender para su toma de decisiones de los mismos modelos entrenados con los mismos datos, creando riesgos sistémicos derivados de posibles actuaciones masivas inspiradas o coordinadas por esos análisis similares.
- Riesgo de Concentración: el desarrollo de modelos de IA y la provisión de datos para su entrenamiento está dominada por muy pocos proveedores, lo que incrementa los posibles riesgos para terceros.
- Integridad de los Datos: La introducción de datos defectuosos o sesgados podrían llegar a perpetuar o a introducir nuevos sesgos en las decisiones financieras de los participantes en el mercado.
Por otro lado, el uso de este tipo de modelos, cada vez más accesibles para un público cada vez mayor, más heterogéneo y con niveles de formación financiera más variados, resulta en este momento prácticamente imposible de evitar. Nada impide que un usuario pregunte al que considera «su algoritmo de cabecera» por decisiones de inversión, ni que decida hacerle caso ciegamente, con todo lo que ello puede conllevar en términos de pérdidas y ganancias. ¿Para cuando la primera demanda a una compañía tecnológica por los supuestos consejos de inversión que su algoritmo dio a un usuario?
Del mismo modo que tenemos ya usuarios que, irresponsablemente, utilizan algoritmos generativos como psicólogos o como médicos, podemos perfectamente encontrarnos otros que deciden utilizarlos como asesores financieros, y que, debido a su desconocimiento, interpreten que lo que el algoritmo responde es, de alguna manera, un consejo de inversión fiable, o incluso más fiable que el de un asesor humano, que ya de por sí no era demasiado difícil. Y por mucho que el algoritmo informe en su letra pequeña a pie de página que «puede cometer errores» y que «consideres verificar la información importante», es muy posible que esas advertencias caigan en el mismo olvidado lugar que aquellas de «rentabilidades pasadas no garantizan rentabilidades futuras» que los asesores financieros siempre incluyen en sus informes.
¿Supone realmente la inteligencia artificial un riesgo de tipo sistémico para los mercados financieros, o es simplemente una herramienta más, como ocurre con las redes sociales en el caso de los meme-stocks, con la que pueden hacerse daño los que pretenden jugar a que saben? ¿Cómo evitar, ante la popularización de herramientas así, que sean utilizadas en el contexto de los mercados financieros? ¿Cómo proteger a aquellos que no quieren ser protegidos, pero que seguramente saldrán corriendo a demandar responsabilidades cuando las cosas les salgan mal?
This article is also available in English on my Medium page, «When it comes to investing, who would you trust, a blindfolded monkey, or AI?»
Una persona con background en Matemáticas y con los modelos oportunos consiguió ganar mucho dinero
https://en.wikipedia.org/wiki/Jim_Simons
* In 2014, Simons reportedly earned US$1.2 billion, including a share of his firm’s management and performance fees, cash compensation and stock and option awards.
* According to Forbes magazine, Simons had a net worth of $30 billion in 2023, making him the 25th richest person on the Forbes 400 list.
* In 2018, he was ranked 23rd by Forbes,
* In October 2019, his net worth was estimated to be $21.6 billion.
* In March 2019, he was named one of the highest-earning hedge fund managers and traders by Forbes
No solo hay que implementar las herramientas, primeri hay que saber en que se basan, y saber donde está el umbral de ruido… la fórmula no está en ningún prompt. Es necesario capacidad intelectual y mucho esfuerzo, muchas horas de trabajo duro con foco.
Hay un libro que cuenta sobre este inversor y su fondo (hace muchos años privado) Renaissance Technologies.
En español el libro de llama “El hombre que descifró el mercado” y es muy recomendable.
En el fondo a lo largo de las décadas fueron pasando mentes brillantes incluso figuras polémicas como Robert Mercer.
Los mercados financieros ya están muy automatizados en la toma de decisiones de inversión pero la IA aporta un plus en estrategia y táctica que va a dejar en pañales a lo que funciona ahora en poco tiempo.
El asunto es que , dentro de las aplicaciones de la IA, el de utilizar el algoritmo para ganar dinero es claramente la aplicación que mas inversión va a recibir y encima el que consiga ser mas eficiente va a retroalimentar su eficiencia con el mismo dinero que gane , gran parte del cual se destinará a hacerle aún mas eficaz, con lo que se prevee una carrera alocada (mas aún que la que ya hay con la IA en general) por diseñar el mejor algoritmo de inversión.
El asunto es qué sucederá cuando practicamente todo el mercado financiero este funcionando con cajas negras superinteligentes , pero que no colaboran sino que compiten entre sí.
Miedo da.
«Usuarios que irresponsablemente usan IH como psicólogos o como entrenadores paraprofesionales…» La orcas coach de la siliconada actualidad…
Por un momento pensé que había leído este párrafo… pero en seguida me di cuenta que se trataba de mi manía en intercambiar IA por IH, a lo que me lleva la tendencia por hablar de la IA, como si realmente la palabra I no fuera una simple aproximación académica…
Porque siempre se despreció el trabajo de la inteligencia humana, no directamente monetizable, por ejemplo cuando se le llama educación a un simple proceso de domesticación (lo que se consiguió con ciertos animales irracionales, sin gastar demasiado money). Pero es que ahora ya nos pasamos el concepto de inteligencia por el forro de la silicona mental y vendemos como ideas de calidad científica, lo que son simples (y siliconadas) aproximaciones.
Que la gente use ML/IA para tomar decisiones no me sorprende ya que son más rápidas y baratas que sus contrapartes humanas.
Por otro lado veo su lado oscuro. Seguro que habrá pronto «Black IA» que permita que la gente tome decisiones erróneas basadas en información sesgada que se le ha «provocado» tener a la máquina.
Por ejemplo, puedo tener un foro reddit, unos blogs conocidos o lo que sea, y recomiendo comprar al Deutsche Bank. Y luego en la vida real apuesto contra en Deutsche Bank.
Ellos pierden, yo gano
—
Y eso si un ingeniero que trabaje ahí no se le crucen los cables
Imaginemos que se ha descubierto el MLL capaz de asesorarte mejor que nadie, lo que debes comprar para obtener un máximo de rentabilidad y supongamos que la llamamos ORACULO,…
Pues aun esta por inventar, la MLL PREHORA, que anticipa en media hora los consejos de ORACULO y te indica que compres acciones, que dentro de media hora subirán porque lo manda comprar ORACULO.
Esos 5 puntos ya ocurrían cuando solo había humanos.
Todo en el mundo se resume (lo financiero más) a «toda situación es susceptible de empeorar» y, añado, «y lo hará»
Desde nuestra agencia de marketing en Andorra, creemos que la IA en los mercados financieros es una herramienta impresionante pero con sus riesgos. La tecnología puede hacer maravillas, pero su complejidad y falta de transparencia son un gran reto. Además, sin marcos adecuados para manejar estos riesgos, podríamos estar en terreno peligroso. Si todos empiezan a usar los mismos modelos, una falla podría causar un desastre en cadena. La IA es increíble, pero necesita ser manejada con mucho cuidado para evitar problemas mayores.
No pasará nada especial, quienes primero lo implementen ganarán más dinero si es que realmente suponen una ventaja y luego los demás actores también lo implementarán si no quieren dejar de ser competitivos. Se autorregula. Ya ha ocurrido con otras herramientas.
Lo de evitar demandas por ‘consejos financieros’ está también ya muy estudiado.