La Casa Blanca ha reunido a siete compañías dedicadas al desarrollo de AI y algoritmos generativos, concretamente Amazon, Anthropic, Google, Inflection, Meta, Microsoft y OpenAI, y ha decidido anunciar su compromiso para el cumplimiento de ocho principios que considera de gran importancia, formulados de una manera muy amplia y general.
Los ocho principios, con la redacción finalmente aprobada por los participantes, son los siguientes:
- Las empresas se comprometen a realizar pruebas de seguridad internas y externas de sus sistemas de IA antes de su lanzamiento.
- Las empresas se comprometen a compartir información en la industria y con los gobiernos, la sociedad civil y el mundo académico sobre la gestión de los riesgos de la IA.
- Las empresas se comprometen a invertir en ciberseguridad y en salvaguardias contra amenazas internas para proteger los pesos de los modelos propietarios e inéditos.
- Las empresas se comprometen a facilitar el descubrimiento y la notificación de vulnerabilidades en sus sistemas de IA por parte de terceros.
- Las empresas se comprometen a desarrollar mecanismos técnicos sólidos para garantizar que los usuarios sepan cuándo se genera contenido mediante IA, como sistemas de marca de agua.
- Las empresas se comprometen a informar públicamente sobre las capacidades, limitaciones y áreas de uso apropiado e inapropiado de sus sistemas de IA.
- Las empresas se comprometen a priorizar la investigación sobre los riesgos sociales que pueden plantear los sistemas de IA, incluso para evitar prejuicios y discriminaciones perjudiciales o proteger la privacidad.
- Las empresas se comprometen a desarrollar e implementar sistemas avanzados de inteligencia artificial para ayudar a abordar los mayores desafíos de la sociedad.
Como puede observarse, ahora ya podemos estar todos muchísimo más tranquilos sabiendo que el avance de la tecnología, estando en esas manos, ya no va a representar nunca ningún tipo de problema.
¿No? ¿Cómo puede ser que no os quedéis tranquilos con semejantes compromisos? No sé, no lo entiendo… ¿quizás se deba a que varios de ellos ya han sido ampliamente incumplidos antes de su firma? ¿Alguien ha visto algún sistema realmente fiable que permita la identificación fehaciente de contenidos creados mediante algoritmos generativos y diferenciarlos de los creados por seres humanos? ¿Acaso se deben vuestros recelos al hecho de que varias de esas compañías han incumplido anteriormente varios de esos principios, hasta el punto de poner en peligro a personas o incluso a sistemas políticos de países enteros? ¿O a que, ante problemas de ciberseguridad, varias de esas compañías los han ocultado y negado durante largo tiempo? ¿O será, tal vez, porque algunos de esos compromisos tienen un tufillo a buenismo y a declaración vacía de buenas intenciones tan evidente que asusta?
¿De verdad alguien cree que una declaración como esta, con siete compañías escogidas no se sabe cómo, va a servir para algo? ¿Alguien se siente mejor después de leerla? ¿Qué pasará con esas siete compañías si simplemente no cumplen esos principios, incluso si los ignoran de manera clara y evidente? ¿Y con cualquier otra compañía que no sea ninguna de estas siete?
Francamente, tras una reunión así y unos principios como esos, no me siento en absoluto más tranquilo. La Casa Blanca ha señalado a siete compañías, y les ha pedido que firmen ocho compromisos tan amplios, tan interpretables y tan ambiguos que, en la práctica, no implican absolutamente nada desde un punto de vista legal o de obligaciones, y pretende que eso constituye algún tipo de regulación. No, eso no es regular. Primero, porque comete el error de pensar que lo que hay que regular es la tecnología, que no es susceptible de ser regulada. Y segundo, y mucho más grave, porque no intenta regular a los que aplican esa tecnología y la integran en sus lanzamientos de productos y servicios. La Casa Blanca está tratando a siete compañías como si fueran «los hechiceros de la tribu», y diciéndoles simplemente que «se comprometan a ser buenos y portarse bien», sin más, sin ningún tipo de marco que, de alguna manera, pueda servir para responsabilizarlas de los problemas que puedan surgir – que no lo olvidemos, no son problemas «de la tecnología», sino de su uso irresponsable.
Francamente, si esto es lo que los Estados Unidos tienen que aportar al futuro de la regulación en estos temas, más nos vale esperar a que alguien con más sentido común diga algo más sobre estos temas.
This post is also available in English on my Medium page, «Seven companies, eight vague promises»
Jajaaaa…
Preguntenle a Edward Snowden….
La Casa Blanca es lo menos confiable de este Universo.
No entiendo este tipo de compromisos, disculpad.
Vayamos al ejemplo fácil. Meta, empresa que ya se ha saltado todo tipo de control de manera reiterada y que como bien ha señalado en algunas ocasiones Enrique, colabora, literalmente con gobiernos o estados para realizar cosas que en otros sería directamente ilegal, cuanto menos.
Así que esto es absurdo.
Es como la calificación regional de los extintos Dvd´s, donde la película de matrix que comprabas, la veías en X reproductores de X países.
¿Qué impide que hagan este tipo de declaraciones estas empresas, cuando también operan en sitios del planeta tierra donde esto no tendría ninguna validez en absoluto si priman otros intereses totalmente opuestos?.
Que sí, que sigue existiendo la trata de blancas, la esclavitud, el genocidio y tal y cual (con mi más profundo pésame) pero deberíamos de elaborar una especie de carta de los derechos humanos o algo así (disculpad mi estilo propio de pueblerino paleto….) en relación a la inteligencia artifical y como esta debería de afectar a los seres humanos. Un tipo «Las tres leyes de la robótica» y no brindis al sol como estos que trae hoy Enrique.
Y todo ello presionando para que las leyes sean duras con las IA abiertas. ¡ Con esas sí !.
Pero que se puede esperar de un país que siempre ha puesto por delante el interes de sus corporaciones antes que el de los ciudadanos.
Y basta con sumar el presupuesto de esas compañias juntas para ver el poder de los lobbys que les representan.
Lo que se trata de evitar es imposible a mi modo de ver. Los «algoritmos generativos» son cajas negras que nadie puede monitorizar. Tu introduces una pregunta y ellas te dan una respuesta, pero nunca sabrás por qué procedimientos la han obtenido. Por tanto es imposible ver los errores de razonamiento que la AI pueda cometer en la elaboración de la respuesta. Lo mas que puedes obtener testando muchas pruebas , es calcular la probabilidad de que la respuesta sea correcta.
Puedes decidirte al poner a trabajar un algoritmo generativo, si este comete menos errores que un ser humano, pero mientras que el ser humano tiene el «sentido común» para rechazar respuestas evidentemente erróneas, las AI, (actuales) carecen de esa facultad.
Aun suponiendo la buena voluntad de esas compañías , (que es mucho suponer), lo que se les solicita es imposible, porque lo que se les pide es exactamente lo que ellos desearían conseguir y no pueden, una AI perfecta
No parece muy creíble, no… salvo quizá por el [posible] hecho de que estos pactos constituyan una suerte de «pacto de no agresión» entre empresas. Por lo demás, es evidente que el capitalismo -y más a esos niveles- odia cualquier regulación sobre su negocio y más aún sobre su modelo de negocio. Una declaración así sólo tiene credibilidad (y sentido) si de lo que se trata, en el fondo, en de un gentlemen agreement de una naturaleza parecida a los acuerdos de no agresión sobre usos del software a los que llegaron años atrás para no convertir cada aplicación nueva en una fuente de reclamación de copyright por parte de los demás.
Menos probablemente -aunque no cabe descartarlo del todo- también podría tratarse de una performance de autolimitación o autorregulación para evitar que lo hagan los poderes públicos. Ahí yo creo que la Unión Europea les ha metido algo de miedo en el cuerpo.
Wait and see
La experiencia que yo tengo de pactos difusos, como este, entre CEO’s de empresas competidoras, es que de la reunión salen todos los CEO’s, pensando alguna treta, que sin chocar frontalmente con lo firmado, burle el espíritu del acuerdo y deje a su compañía en mejor posición que las de sus competidores.
Percepción, todo es percepción Y en la política, aún más que todo (sic)
No se trata, ni para la Casa Blanca ni para los firmantes, de controlar nada de la I.A. sino de quedar bien con la percepción ciudadana.
Los que saben analizar los acuerdos son una minoría dentro de la minoría que los lea. El resto se queda satisfecho con un Gobierno que controla a las empresas, y contentos que las empresas se vean controlados parta el gobierno que les representa.
Nada cambia pero parece que sí.
Un mundo feliz y no ha costado nada.
Asi es.
Cuándo no es posible controlar eficazmente un sistema social complejo, sin caer en una distopía, por otro lado irrealizable, de un panóptíco que permita ver y controlar los comportamientos a distancia, de una burocracia Super-Weberiana que inhiba impunemente la iniciativa creadora, queda una opción que, sin ser ni mucho menos perfecta, puede ser algo menos malo, como la democracia de Churchill, consiste en asumir que las empresas y las personas funcionamos responsablemente, con y por honor.
Es el caso por ejemplo de la FDA en USA. A pesar de todos los escándalos empresariales bien conocidos y documentados en los que las empresas y profesionales abusaron y defraudaron ese código virtual del honor, el sector farmacéutico sigue funcionando de algún modo.
Las responsabilidades se dirimen entonces ante la opinión pública, la política y los jueces. Ese parece que es el sistema anglosajón, y es de lo que trata el manifiesto de la Casa Blanca. Es parecido a lo que se trata de establecer con los códigos de gobernanza corporativa.
Se puede estar en contra y denunciarlo por muchas y variadas razones. Pero, ¿dónde está la alternativa de la UE? ¿Funciona?
Siempre que veo una señal de dirección prohibida en la salida de una autovía, me doy cuenta de lo muy mediocre que somos, como versión actual del homo sapiens. Si nos tienen que avisar de que la salida de autovía no es una entrada, estamos muy muy aviados.
Y así todo. En vez de fomentar el montaje de filtros propios en las crías humanas (un mandato genético), fomentamos las señales/muleta de aviso, que las convierten en mutilados «de crianza».
Y luego, para colmo, les exigimos que sepan navegar por el mundo real y virtual como si se los hubiéramos dado. La típica postura del profe, que no enseña y luego exige la intemerata. En hipocresía, esa sí que no es mediocre precisamente, no hay especie animal que nos gane.
En vez de regular las IHs, que asisten a esa reunión, sobre todo las de políticos, se dedican a poner puertas al campo, aduciendo que las vacas están deseosas de dejar su tranquilo pasto, para recorrer mundo.
Menos mal que, este lunes, además de Portugal (ahí al lado), sigue saliendo el sol por donde siempre…
¡Pues si que se ha esforzado el gobierno federal en ponerle límites a las empresas de IA!
Esos límites son mas permeables que las fronteras de Portugal para los españoles.
La Unión Europea debería de tomar nota, especialmente la Comisaría de la Competencia Margrethe Vestager, y extender las precauciones y acotar los límites a la exportación de datos y en otras materias, y no dejar que Biden les haya doblado el brazo como lo hizo en una de las últimas visitas a Europa, intercediendo y presionando a favor de estas compañías.
Europa debe de endurecer el control sobre estas empresas.
Ja, ja, ja, ja,… Por favor, Sr. Dans, le ruego no me haga estas cosas ya temprano por la mañana porque, de tanto reír el desayuno se me salió por las narices, he puesto perdida la pared del salón, mi perro imaginario (¿Ah, que no sabe lo que es un perro imaginario?, pues es un perro que se ha comprometido también a respetar esos mismos 8 puntos), ha resbalado en el piso y se ha abierto la cabeza contra el pico de un mueble, etc., etc. etc… Un desastre de proporciones siderales y malamente estoy escribiendo esto porque aún se me escapa la risa floja a cada línea que escribo… No, por favor, no, ja, ja, ja, ja, ja, ja…