Llevo unas semanas probando Claude, el algoritmo generativo desarrollado por Anthropic actualmente ya en su segunda iteración, y sinceramente, me parece uno de los competidores más interesantes en este cada vez más superpoblado entorno, en el que ChatGPT ya compite con Bard, que Google acaba de presentar en 43 idiomas y en muchos países, y con LLaMA, de Meta, que está a punto de lanzar una versión comercial y parametrizable por clientes corporativos. La primera versión de Claude se lanzó el pasado marzo.
¿Qué lo hace interesante? En primer lugar, la compañía que lo desarrolla. Anthropic es una public benefit corporation basada en San Francisco y con un fuerte enfoque en el desarrollo de sistemas de IA confiables, interpretables y orientables, el tratamiento responsable y seguro de los datos, y con un modelo que denominan de las 3 H; Helpful, Honest y Harmless. Con esos principios, tan aparentemente alejados de la desaforada ambición de OpenAI o de otras compañías en este entorno, la compañía ha conseguido levantar ya 1,500 millones de dólares con una última ronda de 450 millones el pasado mayo, y mantiene una política de exquisita transparencia tanto en las características y evaluaciones de su modelo (model card), como en las de su API o su precio.
Anthropic ha llevado a cabo el desarrollo de Constitutional AI, un modelo que trata de alinear los sistemas de inteligencia artificial con valores humanos universales y promover un impacto social positivo, sujeto a los siguientes principios:
- Alineación con la Declaración Universal de los Derechos Humanos de la ONU, con el fin de asegurar que los modelos respeten la dignidad y derechos humanos.
- Minimizar sesgos y discriminación: entrenar a los modelos para que intenten no replicar prejuicios y estereotipos potencialmente dañinos.
- Transparencia, para que los modelos sean más interpretables y responsables.
- Privacidad, para proteger los datos personales y la confidencialidad de los usuarios.
- Seguridad, intentando evitar usos dañinos y mitigar otros riesgos potenciales.
- Beneficio social, priorizando aplicaciones que tengan un impacto positivo en la sociedad.
Constitutional AI es un intento de alinear los modelos generativos con valores humanos universales y conseguir que actuen de forma ética, justa y beneficiosa para los usuarios.
Para acceder a Claude como usuario individual hay que hacerlo desde el Reino Unido o los Estados Unidos la primera vez – se puede hacer fácilmente mediante una VPN – para crear una cuenta y recibir una confirmación, pero una vez creada la cuenta ya puede hacerse desde cualquier sitio. A partir de ahí, es la ya conocida interfaz conversacional en forma de chat, pero con una diferencia interesante: el modelo aprende de la información introducida por el usuario como correcciones, etc. y mantiene a partir de ese momento la información correcta. Se puede además alimentar a Claude con enormes volúmenes de información con el fin de personalizar un modelo determinado. Desconozco cómo reaccionará en caso de introducción intencionada de información incorrecta, pero por el momento, me ha parecido que los resultados que tiende a ofrecer son generalmente más correctos y menos «alucinados» que los de ChatGPT: por el momento, al menos, no he encontrado que me generase referencias falsas o noticias inventadas para justificar un punto de vista, por ejemplo, ni he detectado problemas especialmente graves de falta de rigor en sus respuestas, como sí me ha ocurrido ya en varias ocasiones con ChatGPT.
Obviamente, Anthropic está en una fase relativamente temprana, no ha recibido aún el nivel de atención mediática y el volumen de usuarios que obtuvo OpenAI tras su lanzamiento, y cuenta con un nivel de financiación menor, pero la filosofía de la compañía me resulta atractiva y, por el momento, los resultados que me ofrece Claude me parecen muy adecuados. Cuando se cambia de idioma, Claude afirma que eso no afecta su elección de fuentes de información, algo que sí me ocurre con modelos como ChatGPT o Perplexity, en los que termino preguntando en inglés porque en general, tiende a ofrecerme mejores resultados. Sin embargo, aunque puede conversar sobre software, no escribe código funcional ni parece, al menos por el momento, orientado a ello.
Me ha parecido francamente interesante. Veremos cómo evoluciona.
This post is also available in English on my Medium page, «I like Claude, Anthropic’s generative algorithm»
En principio parece que presentas a un Claude con muy buena pinta. Hasta mejora en no llamarse Samantha, por ejemplo.
Con ganas de más información sobre el/ella/elle… aunque luego remate en modo Greenpeace, siempre son bien recibidos los pequeños pasos evolutivos.
Habrá que tenerla mas en cuenta. Yo la probé en su momento desde la aplicación para iPhone/iPad llamada Poe (de los mismos desarrolladores de Médium) y no he vuelto a usarla.
“ Cuando se cambia de idioma, Claude afirma que eso no afecta su elección de fuentes de información, algo que sí me ocurre con modelos como ChatGPT o Perplexity, en los que termino preguntando en inglés porque en general, tiende a ofrecerme mejores resultados”
En el servidor de Discord de perplexity pregunté esto mismo y me dijo uno de los desarrolladores que aunque preguntara en español, tendría en cuenta fuentes en otros idiomas, pero no es cierto pues las fuentes siempre provienen de sitios en español…
Vaya lapsus…
La aplicación Poe es de los mismos desarrolladores de Quora, no de Medium… sorry por la metedura de pata
Aun no lo he probado… XDDD
ProgramIA: una inteligencia artificial que explica y compara los contenidos de los programas electorales de cara a las Elecciones Generales
Bien venida sea la competencia en el área de las AI. Cuanto mas haya mas tratarán todas de ser la mejor,
Tal como la describes, parece una AI educada en las ursulinas. Pero para gustos, los colores.
¿En serio te parece que una IA que estuviera bajo los principios que propone Anthropic daría la impresión de haber sido educada en un colegio de alguna orden religiosa? Pues sería sin duda un supercolegio cuyo nombre debería ser ampliamente conocido, porque, por el contrario, yo conozco de primera mano algunos casos donde los miembros de ciertas órdenes no han mostrado precisamente respeto por la dignidad y los derechos humanos ni tampoco se han caracterizado por estar libres de prejuicios y estereotipos potencialmente dañinos.
¿Tienes algo contra las ursulinas?
Conozco gente como de diez órdenes religiosas diferentes, pero a ninguna monja ursulina. ¿Son algún tipo de monjas modélicas que deberían inspirar las respuestas de las más avanzadas inteligencias artificiales? ¿Debería Claude pasar a llamarse Ursula-AI?
Yo la llamaría «Modosita-AI»
El problema es alimentar a la IA con datos digamos suavemente de Delírium Tremens con Trump o Ayuso, no porque piensen diferente sino porque venderían el alma a Satán con tal de conseguir la poltrona presidencial. Todo el daño que están causando la convivencia son solo daños colaterales o incluso menos para ellos.
Imaginas una IA alimentada por Putin y ya tendrás el advenimiento de los Terminators
Por favor , no me compares Trump con Ayuso.
Ayuso es guapa.
De las IA no lo sé, pero el problema de los humanos es que de verdad se crean que sólo Trump o Ayuso hacen eso.
No hombre, claro que no.
Pero ellos destacan mucho sobre el resto.
Bueno, lo hemos probado y aun tiene alucinaciones comparables a las de ChatGPT, preguntenle por rock de los 80s de un pais no mainstream y ya veran…
Buen día, Enrique. Como todavía no está disponible para Argentina, ya me inscribí es su waiting list. No veo la hora de que me notifiquen.
Gustavo: como menciona Enrique en el artículo, puedes usar VPN para sacar la cuenta.