En pleno frenesí por preguntar a los nuevos asistentes generativos como ChatGPT todo tipo de cosas, algunos usuarios han comenzado a encontrarse con respuestas inesperadas: recientemente, por ejemplo, cuando el asistente de un abogado le pidió a ChatGPT un listado de profesores de Derecho implicados en casos de acoso sexual, el algoritmo generó una lista en la que aparecía una persona que nunca había tenido relación con ese tipo de casos, se inventó los detalles, e incluso añadió un falso artículo de periódico que supuestamente lo detallaba.
El caso no es único, y forma parte de las llamadas «alucinaciones» de los modelos masivos de lenguaje: por mucho que algunos quieran atribuirles inteligencia o conciencia, estamos hablando de modelos estadísticos complejos que establecen relaciones de maneras, en muchos casos, incorrectas, y que sin embargo, devuelven en forma de frase formulada con sorprendente convicción. En un caso similar, un alcalde australiano se encontró con que ChatGPT afirmaba que había estado en la cárcel por un caso de corrupción, cuando esa acusación era no solo completamente falsa, sino incluso opuesta a la realidad.
Este tipo de errores son cualquier cosa menos sorprendentes desde el punto de vista de alguien como yo, que se ha encontrado cómo ChatGPT afirmaba que estaba casado con hasta cinco mujeres diferentes, ninguna de las cuales era la correcta – y en algunos casos, con alambicadas historias detrás hablando de varios matrimonios e hijos, formuladas de manera completamente convincente. La pregunta, claro, es prácticamente automática: ¿podemos considerar que ChatGPT ha cometido un delito de libelo o difamación cuando afirma con aparente seguridad algo que es falso y potencialmente dañino para la reputación o el honor de una persona?
Acusar falsamente a un político de corrupción o a un académico de acoso sexual no es algo frívolo, y de hecho, podría llegar a ser enormemente serio: esa información ha sido, a todas luces, «fabricada» de manera completamente incorrecta, pero podría tener consecuencias si alguien la interpreta como verdadera, si simplemente le genera dudas sobre la cuestión, o incluso si una respuesta errónea de ese tipo es posteriormente utilizada para entrenar respuestas subsiguientes.
De hecho, es perfectamente posible que vayamos a comprobar pronto si ese tipo de denuncias por difamación son posibles, porque algunos de los implicados en estos casos se lo están planteando, e incluir una simple cláusula en el pie de la página diciendo algo así como «ChatGPT may produce inaccurate information about people, places, or facts» no parece que vaya a resultar una protección legal demasiado convincente.
Si preguntamos al propio ChatGPT si podría ser denunciado por difamación, la respuesta es
Como modelo de lenguaje de inteligencia artificial, ChatGPT no es una entidad legal y, por lo tanto, no puede ser demandado por difamación. Sin embargo, los creadores, operadores o propietarios de ChatGPT podrían ser considerados responsables por declaraciones difamatorias hechas por el modelo si se puede demostrar que tenían conocimiento de las declaraciones difamatorias o desempeñaron un papel en su creación o difusión.
Es importante tener en cuenta que la difamación requiere una declaración falsa de hecho que cause daño a la reputación de una persona, y no todas las declaraciones hechas por ChatGPT necesariamente cumplirían con este criterio. Además, el marco legal en torno a la IA y la responsabilidad todavía está evolucionando y sujeto a debate y discusión continua.
La clave está en el primer párrafo: salvo en el caso de un entrenamiento malicioso con materiales incorrectos, la posibilidad de que los creadores de un modelo masivo de lenguaje puedan anticipar alguno de los resultados «alucinógenos» que generan estos modelos es prácticamente nula. Pero obviamente, habría que ver cómo se le puede explicar algo así a un juez, y si este podría considerarlo como una protección de algún tipo, sobre todo pensando en el enorme agujero que podría crear. Las metodologías de prompt injection han demostrado que podemos hacer decir a un algoritmo prácticamente cualquier cosa, y delimitar en esos casos la responsabilidad de quien pregunta con una evidente intencionalidad frente a la de quien construye la correspondiente respuesta podría ser sumamente complejo.
Todo indica que nos disponemos a encontrarnos con una enorme proliferación de modelos masivos de lenguaje aplicados a todo tipo de tareas. ¿Van a encontrarse las compañías que ofrecen asistentes conversacionales basados en modelos masivos de lenguaje, debido a su estrategia de escoger velocidad frente a precaución, con una oleada de denuncias derivadas de algunas de las relaciones que, de manera alegre, establecen en función de errores en sus procesos estadísticos?
This article is also available in English on my Medium page, «Can you sue an algorithm for defamation?»
«Todo indica que nos disponemos a encontrarnos con una enorme proliferación de modelos masivos de lenguaje aplicados a todo tipo de tareas.» (EDans).
¿Algo diferente a lo que hace mucha gente en la barra del bar.. .o incluso desde su columna periodística o su escaño parlamentario… vamos hombre, con los molinos cervantinos hemos topado!!
Y la mayoría de las veces inducidos por una mediocre versión de homo sapiens, aunque se considere sabio y poderoso.
Mira que hay veces que tengo que releer tus comentarios para entenderlos. Hoy eres claro y conciso. Un saludo
Como ya he mencionado en otro comentario, no se van a utilizar los chatbot generativos en aplicaciones comerciales que requieran cierto grado de precisión.
Probando Bard y reflexionando sobre el liderazgo tecnológico – comment-494135
Son un fenómeno social y una moda, por su novedad entre los legos, pero sus limitaciones técnicas les alejan de cualquier uso más profesional.
¿Por qué les fascina a algunas personas estos bots conversacionales?
Pues eso entra dentro la necesidad de muchas personas de obtener un feedback o atención durante la interacción.
Sí, tiene gracia, que se pase del autogoogleo a buscar una respuesta sobre uno mismo en ChatGPT.
Cada día más cerca del espejo de Blancanieves.
–
Quizá este chatbot no, pero uno futuro que dé contestaciones con un 97% de acierto puede que se usen en aplicaciones comerciales, Si contesta una persona ¿acierta al 100%?
No.
De la misma manera que un utilitario o un coche familiar no se utilizan para arar o sembrar el campo.
Un coche doméstico que haga el 100% de las tareas para las que es diseñado, no sirve tampoco.
Son herramientas con propósitos diferentes.
El problema es el error de concepto y de percepción que existe sobre los chatbots actualmente, con el hype de ChatGPT, que induce a pensar que tienen una competencia que no es real.
Durante el hype de una tecnología se pueden soltar un montón de barbaridades sobre su «brillante futuro en todos los ámbitos de la experiencia humana» y luego, pues eso.,
Metaverso, no, criptomoneda de Facebook, no, Laserdisc, no, etc., etc.
Son cosas que se analizan y se estudian por expertos mucho antes de que desaparezcan para el público general.
La idea de que un Chatbot como ChatGPT es una “AGI” o que OpenAI tiene los recursos para desarrollarla más allá de lo que es actualmente, es errónea.
Y Sam Altman es plenamente consciente de ello y Microsoft también.
Durará unos meses hasta que surja la siguiente ‘Big Thing’ en los medios de comunicación.
Lo que sucede es que la mayoría de la gente no tiene ni remota idea de lo que hay debajo del capó. (Ni los taxistas tampoco)
–
Que un humano sea chismoso o que claramente difame, no excusa a un sistema de IA para hacer lo mismo.
Y obviamente afirmaciones tan categóricas , incluyendo referencias a supuestas publicaciones de terceros es una bomba, con seguridad se carga la frágil reputación con que se mide todo hoy en dia, ya tenemos un refrán para eso «cuando el río suena…». Entiendo que absolutamente exigible a los responsables de la herramienta suficiente precisión en las afirmaciones que hace.
«La recopilación de datos junto con el uso de técnicas modernas como la inteligencia artificial ha generado un amplio debate y preocupación respecto a los límites que deben aplicarse, entre los que se encuentra el derecho a la protección de datos de carácter personal. Mediante la presente querella, esta parte quiere manifestar que se ha visto vulnerado el derecho a la intimidad, así como el deber de confidencialidad establecido en el artículo 5 de la Ley Orgánica 3/2018, de 5 de diciembre, de Protección de Datos Personales y garantía de los derechos digitales, y que me notifique la resolución que recaiga en el mismo al amparo de lo previsto en el Real Decreto 1720/2007, de 21 de diciembre, por el que se aprueba el Reglamento de desarrollo de la Ley Orgánica 15/1999 de 13 de diciembre, de protección de datos de carácter personal, cometiendo un ilícito de revelación de secretos tipificado en nuestro código penal.»
Puede un puñal ser condenado por la muerte de alguien, NO, el condenado es quien manejó el puñal. Evidentemente chatGPT puede achacar un delito no cometido a alguien, pero es quien recibe esa información, el que hace mal uso de ella y es el responsable de lo que ocurra por ello.
No vale decir, «es que yo me creí lo que dijo el aparato», como no vale decir «es que yo no creía que el puñal estuviera tan afilado». Tu eres el responsable de la herramientas que utilizas.
Quien está usando de forma lucrativa, beneficiario en última instancia de aquello que chatgpt (la herramienta) genera es OpenAI; por tanto es quien empuña el arma de doble filo… o sea, el responsable. Hay proyectos sobre cómo implementar una “constitución” que se aplique a estos modelos para que realmente cumplan con un beneficio social y alineado con el ser humano: con los Interfaces físicos correspondientes, sus alucinaciones y los promps malintencionados pueden hacer muchas trastadas.
Estoy absolutamente de acuerdo, quien usa las contestaciones del chatbot, es el responsable de difundir lo que esta diga.
Llegamos a la conclusión, que las respuestas de chatGPT, las imágenes de Stable Diffusion, y todos los testimonios originados, o que interviene, una AI no son prueba de nada, como no lo es un rumor, o un dibujo, hecho por una persona,
El problema se traslada a cómo diferenciar el registro de un hecho cierto y verídico, de una elaboración de una AI.
Podéis llamarme lo que queráis y seguramente chatgpt y similares sean magníficos pero en mi caso prefiero hacer una búsqueda en Google y leer las fuentes originales y muchas veces me centro en lecturas de PDFs de más de 100 páginas. Obviamente estos resúmenes no son para una persona como yo que muchas veces quiere profundizar en un tema y leer las diferente opciones y las razones que los autores dan para justificar su postura.
Para que haya un delito tiene que haber un culpable que cumpla una pena, digo yo.
¿Quién sería el culpable en este caso? ¿El que “induzca” a ChatGPT? ¿El programador? ¿OpenAI?
Yo no lo veo
El culpable será quien difame a otro basándose en la respuesta que le ha dado chatGPT.
«El culpable será quien difame a otro basándose en la respuesta que le ha dado chatGPT.»
Tiene sentido.
Aunque… cada vez podría ser más complicado identificar la fuente, debido a la rapidez y facilidad de difusión de la (des)información con los medios actuales. Una explosión combinatoria de datos que podría resultar más costosa de desentrañar que las consecuencias que la desinformación ha producido.
Además, conoces el viejo truco de los abogados / fiscales americanos. Afirman algo durante el juicio, la parte contraria levanta una objeción, el juez admite la solicitud y pide al jurado que no tome en cuenta la afirmación.
Pero, ya sabemos que la memoria no es tan selectiva como para poder olvidar por orden lo que ha visto u escuchado. Cuando el mal está hecho, pues… está hecho.
El entorno legal no está preparado para resolver con las tecnologías de I.A. Razones por las que se pide bloquear la divulgación de sus avances durante cierto tiempo, y seis meses me parecen muy insuficientes.
Duro golpe en Italia para ChatGPT
«En primer lugar, parece que OpenAI no facilita en ningún momento a los interesados la información requerida por el artículo 13 del RGPD, esta es, la identidad y los datos de contacto del responsable (en este caso, al no tener OpenAI un establecimiento permanente en el Espacio Económico Europeo, los datos de su representante autorizado), los fines del tratamiento, su base jurídica, los derechos ARCO-POL, etc…»
Artículo completo:
https://noticias.juridicas.com/conocimiento/tribunas/17895-duro-golpe-en-italia-para-chatgpt/
Diría que es un duro golpe para los italianos que tendrán que buscar la forma de conectar con chatGPT como si fueran chinos
Sí, no sé si los italianos podrán sobrevivir sin chatGPT …
Yo empezaría por fijarme en los comentarios de NOSTRAM y SUGERENCIA, que me parecen de lo más sensato. No obviaría el de MENESTRO, que deja claro de que va una IA (que a veces parece que se olvida).
Si tengo una Roomba, que cada vez que le obstruyo su camino, me regala una descarga eléctrica… la culpa es mía o de la Roomba? El ejemplo del puñal no sirve, ya que es un humano quien lo empuña y por tanto, quien ejerce la acción. Podremos decir que la culpa es suya (del humano) aunque sepamos perfectamente, que un puñal, sirve como su nombre indica, para apuñalar. Por tanto, el objeto, NO es culpable. La Roomba me electrocuta porque quiere.
Si tengo una IA, cuya funcionalidad es hacerme las cosas “mas fáciles”, y la información que me da, es incorrecta, sesgada o “alucinada”, por lo pronto, es una mierda de IA porque no esta cumpliendo su propósito. Si tengo que verificar toda información que me proporciona…
Para que leches quiero una IA? Para duplicar mi trabajo?
Es evidente, que una información falsa, se puede usar o desdeñar, y en el primer caso, la culpa será de quien la esta usando a sabiendas de que esta mal. Son nuestras famosas Fake News.
Pero si una herramienta, que se supone, es mas inteligente que yo, me está dando información errónea, y yo la utilizo, pensando que es correcta… De quien es la culpa? Tengo yo la culpa de la incontenible promiscuidad de Enrique Dans? La tiene él? La tienen ellas?
Si tu producto, el que sea, no esta preparado (o todo lo preparado que se supone debiera estar) no lo lances al mercado, que las prisas no son buenas. Que podemos decir que, en porcentajes, las “alucinaciones” representan un numero muy bajo. Pero por bajo que sea, basta que te toque una de ellas, para que te haga la vida imposible.
Así que… de quien es la culpa?
Partes de una premisa falsa
Pero si una herramienta, que se supone, es mas inteligente que yo, me está dando información errónea, y yo la utilizo, pensando que es correcta… De quien es la culpa?
Estoy seguro que cualquiera te considerara a ti, mas inteligente que a tu «cuñao» digital.
«el objetivo del argumento (o de la discusion), no debe ser la victoria, sino el progreso»
— Joseph Joubert
Digo esto de antemano, porque te veo venir.
Seguramente, y a tenor por lo que muchos hablan por aqui, tu afirmacion si seria erronea, porque ChatGPT es mas inteligente que yo (segun sus postulados)
Asi que sacandome, a mi personalmente, de la ecuacion, lo que es erroneo, es tu afirmacion…
Nadie me consideraria mas inteligente que mi cuñado «digital» (de los fisicos… oye, les quiero mucho, pero tienen su «pero…») XDDD
Aunque no es estrictamente la misma situación, entiendo que aquí se aplica (o debería aplicarse) una doctrina similar:
Caveat emptor
«cuidado por parte del comprador»
«el comprador asume el riesgo»
«como está es como se vende, asuma el riesgo»
[reemplace «comprador» por «lector»]
«En la disposición, el Garante de Privacidad señala la falta de información a los usuarios y a todas las partes interesadas cuyos datos son recopilados por OpenAI, pero sobre todo la ausencia de –una base legal– que justifique la recopilación y el almacenamiento masivo de datos personales, con el propósito de «entrenar» los algoritmos que subyacen al funcionamiento de la plataforma.»
Enlace original en italiano:
https://www.garanteprivacy.it/garante/doc.jsp?ID=9870847
Con se argumento pueden mañana los italianos cerrar el buscador de Google. ¿Quién serian más perjudicados Google o los italianos?.
Ya tenemos bastante tabarra con el «Derecho al olvido»
Enrique IX el polígamo:
«Bard está tan claramente por detrás en todo ello»
MEEEEEEC
Respuesta Errónea.
Si alguien saca un producto que infringe la ley es el responsable de infringirla. Como dijo mi amigo el enano cuatro latas:
«La política del pollo sin cabeza no es una buena política»
R2D2 traducido al castellano por C3PO
¿Debemos permitir a chatGPT usar datos personales?
Italia va a la cabeza en esa respuesta, y la UE imitando mentalmenta a Onán.
Pues tampoco me parece tan compleja la pregunta.
Una inteligencia artificial es una herramienta compleja y poderosa, pero sólo una herramienta. Para cometer un delito tendría que tener personalidad jurídica. Esto es: tener derechos y deberes. El deber de no decir mentiras ni levantar falsos testimonios contra el derecho de ¿? Si no tiene derechos, tampoco tiene deberes.
En el toma y daca de la convivencia, los derechos se pagan con deberes, y la falta de derechos implica la ausencia de deberes. Un deber incumplido se paga con la privación de un derecho. En el caso del incumplimiento de la ley por parte de las personas, la privación puede ser de libertad (cárcel) o restricción del derecho de propiedad (multa).
Si un programa no tiene libertad de la que le podamos privar ni propiedad ninguna, tampoco podremos exigirle ningún deber, pues no podrá pagar por su incumplimiento.
Otra cuestión más compleja es delimitar la responsabilidad de los creadores del programa. Siempre que indiquen que la asunción de la veracidad de las respuestas corre por cuenta del usuario, nada que reclamar.
He tenido suficientes conversaciones con ChatGPT para convencerme de que sus respuestas, aparte del sesgo woke inducido por sus creadores, son relativamente poco fiables y deben verificarse siempre por otra vía. Aunque en el futuro esta facilidad para dar respuestas inexactas se corrija, la garantía nunca se debe asumir por dada. No hay garantía de veracidad, como tampoco la proporcionan las personas (más que aproximadamente).
A partir de ahí, podemos hacer lo que queramos.
«Para cometer un delito tendría que tener personalidad jurídica.»
OPENGOVUS «Open government data in United States»
Openai (que opera como Openai, Inc.)
Dirección: 3180 18th St, San Francisco, CA 94110, Estados Unidos
ID de ubicación 1122675-10-161
Número de cuenta comercial 1031669
NAICS 5400-5499: Servicios Profesionales, Científicos y Técnicos Sistema de Clasificación de la Industria de América del Norte (NAICS)
CEO de OpenAI: Sam Altman
Openai, Inc.: 298 Alabama St Ste 202, San Francisco, CA 94103, Estados Unidos.
OpenAI, que no tiene oficina en la Unión pero ha designado un representante en el Espacio Económico Europeo, deberá comunicar en el plazo de 20 días las medidas que adopte en ejecución de lo solicitado por el Garante, so pena de multa de hasta 20 millones euros o hasta el:
—4% de la facturación— global anual.
La facturación es una acción que se refiere a todos los actos relacionados con la elaboración, registro, envío y cobro de las facturas.
Una factura es un documento que refleja los datos de una —-transacción mercantil—- (venta de bienes o servicios)
Esto va muy rápido.
Hace pocas semanas, hablábamos en este blog de como la información de estas IA, puede ser o no ser correcta intencionadamente o porque la información de la que se nutre por internet, no sea veraz.
Ahora hemos pasado a creer en el dios CHAPGPTtt-
Lo que yo he observado hace dos días es que ahora CHAPGPT cuando termina de responderte una pregunta (depende de que tema) te indica una serie de advertencia sobre que dicha información puede ser o no correcta y que consultes con un profesional, vamos que se empieza a cubrir las espaldas.
No tenemos remedio, a ver si encontramos vida extraterrestre que demuestre que hay vida inteligente en el universo.
Para los jueces, el planeamiento sólo va a ser uno: ¿es tolerable la impunidad en casos como estos y en otros aún mucho menores? La respuesta, absolutamente segura, va a ser NO. Admito apuestas. Y, además, de comulgar con la idea, creo que puede ser, por cierto, un punto de partida para que la IA quede debidamente acotada y no se convierta en un campo de Agramante en manos de incívicos, bárbaros y demás ad usum twiteris.
¿Quién pagará? Para los jueces, ahí estará el problema, y el pagano puede ir desde el autor de la tecnología, o bien el que la posee a título de copyright, hasta el responsable de la página o medio desde la que ha acontecido el entuerto…
Si os leéis con calma la sentencia del Tribunal Supremo del famoso caso SGAE vs Asociación de Internautas, veréis que la imaginación de los jueces es suficiente y sobrante para colapsar de guiones a la Walt Disney Co
PS – Para alguien que lo ha comentado: no se castiga al coche que comete una infracción, se castiga al que lo conduce; y si este no puede ser habido, se la carga el propietario del vehículo. Para esas cosas, dificultades, pocas.
OpenAI, la organización que creó ChatGPT, tiene un primer problema: no ha establecido una sede local en uno de los 27 países de la Unión Europea, lo que significa que la autoridad de protección de datos de cualquier país miembro puede iniciar nuevas investigaciones y hacer cumplir las prohibiciones.
La Comisión de Protección de Datos de Irlanda dijo que “se coordinará con todas las [autoridades de protección de datos] de la UE en relación con este asunto (la prohibición temporal en Italia)”
https://www.cnbc.com/2023/04/04/italy-has-banned-chatgpt-heres-what-other-countries-are-doing.html
Grupo europeo de consumidores BEUC:
https://www.beuc.eu/press-releases/investigation-eu-authorities-needed-chatgpt-technology
Canadá anunció que lanza una investigación sobre ChatGPT y su recopilación y uso de datos:
https://www.cbc.ca/news/politics/privacy-commissioner-investigation-openai-chatgpt-1.6801296
La agencia británica de protección de datos ICO:
https://techmonitor.ai/technology/ai-and-automation/chatgpt-uk-ico-generative-ai
Regulador de protección de datos de Noruega:
https://www.datatilsynet.dk/
Bien, respecto de si un cuchillo es o no culpable, se ve que aquí, o hay mucha gente muy desmemoriada, o no han pisado en su vida un cuartel…
¿Alucinaciones? Meeeec, totalmente incorrecto. Los que las llaman así, no tienen idea de lo que es una alucinación. Lo más cercano a lo que hace un chatbot de estos es fábular. Entonces, fabulación, NO alucinación.
Y por último: «¿Van a encontrarse las compañías (…) con una oleada de denuncias (…)? Of course!!!
Saludos
Derecho de rectificación
Toda persona, natural o jurídica, tiene derecho a rectificar la información difundida, por cualquier medio de comunicación social, de hechos que le aludan, que considere inexactos y cuya divulgación pueda causarle perjuicio.
My email address is: sama@openai.com
https://twitter.com/sama/status/1492644786133626882
oai23tour@openai.com
https://twitter.com/sama/status/1641181668206858240
Asociación para la Prevención y Estudios de Delitos, Abusos y Negligencias en Informática y Comunicaciones Avanzadas (APEDANICA)
—«Por lo expuesto, se SOLICITA que se admita esta denuncia y pronto se abra un expediente sobre ChatGPT de OpenAI, IBM Watson ROSS, Google Assistant, Amazon Alexa, Microsoft Cortana, Apple Siri u otras aplicaciones de Inteligencia Artificial que usen funcionarios en Administraciones Públicas, empezando por esta misma Agencia Española de Protección de Datos»—
https://www.miguelgallardo.es/aepd-chatgpt.pdf
https://cita.es/aepd-chatgpt-justificante.pdf
Ejemplo extremo ¿ Puede una máquina de escribir difamar? O es la persona que lo usa.
En el caso que alguien ponga una máquina como herramienta de generación de respuestas, será más o menos responsable en función de cómo indica las fuentes. En el caso de estas IA , yo opino, que deberían declarar que se lo está inventando, o indicar las fuentes.
Si un buscador indica que alguien ha hecho algo no es lo mismo que cuando indica que en estas páginas se dice que alguien ha hecho algo.( )
No es lo mismo que yo indique que mi vecino ha hecho algo a que yo diga que en tal periódico o tal persona afirma que mi vecino ha hecho algo.
En realidad las leyes me contradicen. Véase el derecho al olvido o el prohibir los enlaces de descargas.
OpenAI, la empresa estadounidense que gestiona ChatGPT, envió una nota al Garante per la protezione dei dati personali (Autoridad italiana de protección de datos) en la que ilustra las medidas introducidas en cumplimiento de las peticiones de la Autoridad contenidas en la medida del pasado 11 de abril, explicando que ha puesto a disposición de los usuarios europeos y no europeos, y en algunos casos también de los no europeos, una serie de informaciones adicionales, y que ha modificado y aclarado algunos puntos y reconocido soluciones accesibles para que los usuarios y no usuarios puedan ejercer sus derechos. A la luz de estas mejoras, OpenAI volvió a hacer accesible ChatGPT a los usuarios italianos.
Resumiendo:
«técnicamente imposible corregir los errores»
https://www.gpdp.it/home/docweb/-/docweb-display/docweb/9881490
Rome, 28 April 2023