La sesión sobre la regulación de la inteligencia artificial promovida por el senador Chuck Schumer en el Congreso y que reunió a personajes de la industria tecnológica como Sam Altman, Jensen Huang, Alex Karp, Elon Musk, Satya Nadella, Sundar Pichai, Eric Schmidt y otros, además de representantes de la sociedad civil y de la comunidad creativa, ha confirmado la mayor parte de los pronósticos que muchos hacíamos sobre el contenido de sus conversaciones.
Por un lado, compañías que generalmente no han sido demasiado amigas de la regulación, solicitando que el entorno se regule rápidamente y que poco menos que se extiendan licencias que permitan operar algoritmos, como si fueran carnets de conducir, no vaya a ser que llegue alguna iniciativa de código abierto y pretenda ofrecer gratis los productos con los que las big tech pretenden llenar sus bolsillos. Por un lado, congresistas pidiendo que se regulen los modelos rápidamente. Por otro, compañías que se asocian para «hacer seguros sus modelos» y para «hacer las cosas bien en esta ocasión«, mientras siguen haciendo las cosas sin ningún tipo de control ni responsabilidad.
Ausencia total de detalle, supuestos buenos propósitos, y una vez más, una aproximación que no promete ningún tipo de asunción de responsabilidades en el caso de que alguien lo haga verdaderamente mal. Como si no hubiésemos vivido nada parecido antes con compañías que querían «conectar a todo el mundo», y terminaron protagonizando desde manipulación de procesos electorales hasta genocidios, sin afrontar por ello prácticamente ninguna responsabilidad.
Desde el Center for European Policy Analysis (CEPA) me pidieron un análisis breve sobre el tema, que escribí directamente en inglés y que se publicó junto con las opiniones de otros analistas bajo el título «Congress Talks AI With Tech Titans« (pdf). Traduzco mi parte y añado un par de enlaces:
A pesar de que el enfoque «voluntario» de los Estados Unidos, en contraposición al enfoque «normativo» de la Unión Europea, tiene sus méritos, sabemos que puede ser insuficiente para minimizar los posibles peligros de la tecnología. Las pautas voluntarias fomentan la innovación, pero no generan responsabilidad. Dependen en gran medida de las directrices éticas establecidas por las propias empresas. En muchos casos, esas directrices son laxas.
Se necesita un marco integral. Debe incluir pautas y regulaciones claras para garantizar la transparencia, la equidad y la responsabilidad. Debe promover el desarrollo ético de la inteligencia artificial, pruebas rigurosas y monitoreo continuo para detectar y corregir sesgos y desinformación.
Deberíamos implementar espacios de prueba (sandboxes) donde los productos puedan ser evaluados y sometidos a observación independiente. Grupos de expertos independientes podrían desafiar los productos creados por las empresas para identificar vulnerabilidades y posibles usos indebidos (redteaming). Aplicados a la inteligencia artificial, estos espacios de prueba pueden contribuir a garantizar la transparencia, la equidad y la responsabilidad, examinando los sistemas de inteligencia artificial en busca de sesgos y desinformación antes de que estos productos sean lanzados al mercado.
This article is also available in English on my Medium page, «AI and regulation in the United States»
En 1996, Martin Juergens, reclamo a la UN la propiedad de la Luna, dado que pertenecía a su familia desde 1756 por concesión exclusiva de Federico el Grande, rey de Prusia, en agradecimiento por sus servicios. Lo que era verdad. No ha sido la única vez.
En 1928, en París, se firmó la abolición de la guerra mediante el acuerdo Kellogg-Briand, por el que todas las naciones firmantes se comprometían a resolver sus diferencias de forma pacífica en lo sucesivo. Por un pelín.
Esta, es una de esas reuniones que pasarán a la historia por lo estrambótico de su planteamiento de base y los personajes estrafalarios que se sentaron a consensuar un documento.
Aunque después de la resurrección de E.T el extraterrestre, la cosa va a estar muy reñida con la U.S. CBP y la NRO.
Why The New York Times, The Washington Post, and Politico Didn’t Publish a Report About UFOs
Probablemente, veamos una disputa por los pastos en Marte, una vez que Elon Musk y Jeff Bezos se trasladen a sus respectivas propiedades y las vacas se generalicen como forma de desarrollar una atmosfera habitable.
–
Post- Pandemic true stories
Muy importante que este grupo pida opinión a personas como Enrique Dans, con su conocido background en innovación
Es importante porque El Centro para el Análisis de Políticas Europeas (CEPA) es un lobby de expertos estadounidense. Y si piden opinión urbi et orbi, es señal que están haciendo su brainstroming, ya que lo de la IA es un campo nuevo para ellos.
Este grupo financia, produce análisis, estudios y organiza eventos para crear opinión a los responsables políticos sobre lalos retos que se avecinan, y que estrategia aconsejar en un entorno en constante evolución
Este grupo, no son unos cantamañanas, se financian entre otros con aportaciones de
* la empresa de defensa Bell Flight
* el gobierno de Estonia
* General Atomics
* Google LLC
* Lockheed Martin Corporation
* Microsoft Corporation ,
* Departamento de Estado de los Estados Unidos
* Departamento de Defensa de Estados Unidos
Y Enrique con su blog, recoge nuestras opiniones que podrá cribar oportunamente para ser nuestra voz ante ellos.
No tiene nada que ver con la Unión Europea, que el nombre puede dar origen a confusión
Ya están intentando meter miedo con el ‘riesgo de extinción’:
https://twitter.com/EU_Commission/status/1702295053668946148
Parece que en Europa también quieren regularlo todo rápidamente…
Nos metieron miedo estos y les hemos comprado la historia,
Asier si eso échales una llamada a los de la UE y le decimos que ponemos a Musk en el data center … vigilando, y no hay nada que temer, al menor problema desenchufa, que eso se la da bien… y no IA que valga… XDDDD
A.I. Poses Risk of Extinction, Industry Leaders Warn
Leaders from OpenAI, Google DeepMind, Anthropic and other A.I. labs warn that future systems could be as deadly as pandemics and nuclear weapons.
Lo que está pasando con la llamada IA, algo que se halla a meses luz de una verdadera inteligencia humana y un producto elaborado por auténticas IHs, no llamadas así, si no consideradas como operativas intelectualmente, a veces hasta con resultados sorprendentes (Einstein, por ejemplo), resulta simplemente vergonzoso. Muy vergonzoso como seres humanos.
Una huida hacia adelante, como la que se practica a diario en cualquier institución educativa/domesticadora : no te miro a los ojos, pequeño/a, para interactuar contigo, por si me siento indefenso y me acabas comiendo las meninges.
Lo mismo pasa con una IA : no quiero interactuar contigo, porque soy incapaz de controlarme. Un pensamiento lógico, si tenemos en cuenta el gusto por las drogas, el maltrato de género, las guerras, los toros de todo tipo… engañar al vecino.
Putos y mediocres versiones de homo sapiens. Una nueva patada en el culo a la madre naturaleza (sea lo que eso sea).
Acabo de leer (Semanal de hoy) a un siliconado anti Valley «by Californian», que dice lo siguiente : «La opinión más extendida en SV es que las personas somos máquinas imperfectas» (un tal DA).
Y se queda tan pancho, como si la IA fuera programada por personas diferentes de estas «imperfectas», ¿para «quitarnos de en medio»? ¿O serán aliens ahora que los están normalizando?
Así que, un político, cuando tiene un asesor para que le ayude, es por ser «imperfecto», no para complementarlo.
Y estos van de gurús tecnológicos, queriéndonos salvar de «los otros» gurús tecnológicos.
Como si el ser humano medio (ese que dicen forma «las masas») fuera tonto y no tuviera suficiente IH para aprender a defenderse en medio del ecosistema que le tocó vivir. Incluso rodeado por los fondos buitre, que de buitres no tienen nada, porque estas aves son una parte muy importante de la naturaleza, para reciclar materiales ya improductivos. Se trata de un abuso lingüístico muy humano, como el del lobo caperuciteño. O lo mismito que llamar educación a un simple y caro sistema de domesticación.
En fin, como decía la gran coplista «Qué pena, penita , pena!»…
Tenemos la experiencia con las cookies, me temo que todo se quede en que antes de utilizar la IA tengas que hacer clik en una apretar en una marca, que autoriza a hacer lo que quieran con lo que quieran de tu ordenador.
No os perdáis esta presentación que acaba de salir acerca de la captura regulatoria.
Un tiburón?
Madre del amor hermoso, es de lo mejor que he visto en mucho tiempo!!!