El artículo publicado ayer por Sam Altman, «The intelligence age«, avanzando que la superinteligencia estará a nuestro alcance en «unos pocos miles de días» y anunciándola como la solución a todos los problemas de la Humanidad, ha generado todo tipo de comentarios y críticas, y ha traído de nuevo al escenario la idea de que la inteligencia artificial pueda llegar a evolucionar hasta ser capaz de alcanzar un nivel que supere el de los genios y las mentes humanas más dotadas.
Si algo me produce especial fastidio son las discusiones terminológicas, y la que se establece en torno al concepto de superinteligencia, desgraciadamente, lo es. La idea de superinteligencia se suele referir a una inteligencia que supera las capacidades humanas en casi todos los ámbitos, incluyendo la creatividad, la resolución de problemas, la inteligencia social y otros. El concepto se discute a menudo en el contexto de la inteligencia artificial, y representa una hipotética fase futura en la que los sistemas de inteligencia artificial podrían exceder las habilidades cognitivas humanas de manera significativa.
La definición de Nick Bostrom, filósofo y teórico de la IA, se refiere a «un intelecto mucho más inteligente que los mejores cerebros humanos en prácticamente todos los campos, incluida la creatividad científica, la sabiduría general y las habilidades sociales», una inteligencia que no estaría limitada a tareas específicas como la IA actual (capaz de sobresalir en áreas muy concretas como el ajedrez, el Go, los videojuegos o el reconocimiento de patrones), sino que sería general, adaptativa y capaz de mejorarse a sí misma. Interesante, pero para mí, carente de lo que realmente diferencia a una inteligencia humana: la motivación y la intencionalidad.
La publicación de ChatGPT o1, anunciado por la compañía como «capaz de usar razonamiento avanzado» y que va mostrando la operativa de su proceso de pensamiento a medida que lo desarrolla, también ha contribuido mucho a alborotar el panorama. Sin duda, ChatGPT ya ha superado a la inmensa mayoría de los humanos a la hora de expresar ideas complejas con un buen nivel de corrección gramatical, pero ahora, además, se sugiere que los supera, además, cuando plantea razonamientos que requieren un trabajo de documentación, de procesamiento y relación de ideas, y en los que la expresión es tan solo un paso final.
Obviamente, la idea de que este tipo de algoritmos eran, de alguna manera, «completadores de frases» más o menos sofisticados, capaces simplemente de predecir qué palabras vienen detrás de otras, se ha quedado totalmente desfasada. Los algoritmos piensan, aunque no lo hagan como nosotros, y son capaces de aplicar esos procesos diferenciales de pensamiento a prácticamente cualquier cosa, con un nivel que excede el de muchísimos humanos – y decididamente, muchísimo más rápido. Tan solo la tarea de documentarse exhaustivamente para una pregunta es algo que genera una tarea humana que abarca mucho tiempo, y eso a pesar de tener disponible una herramienta como internet – inimaginable si tuviésemos que, como antes, acudir a bibliotecas y expertos para recopilar esa información relevante.
Por tanto, si admitimos al ser humano como «inteligente», y a algunos de ellos como «muy inteligentes», mucho me temo que, digan lo que digan las definiciones, la superinteligencia ya está aquí desde hace tiempo, y no es humana. Los sistemas de inteligencia artificial actuales dependen en gran medida de los progresos del machine learning, especialmente del deep learning, y estos modelos son ya razonablemente generales a la hora de responder sobre distintas temáticas. Eso sí, razonan y lo expresan únicamente cuando alguien, un humano, se lo pide, y por tanto, podríamos decir que están aún lejos de alcanzar una inteligencia general porque, sobre todo, carecen de motivación o intencionalidad. Pero por un lado, una inteligencia artificial capaz de mejorarse a sí misma de forma recursiva podría acelerar su propio desarrollo, y alcanzar la superinteligencia a una velocidad mucho mayor de la que los humanos podrían comprender.
Sin embargo, crear un sistema que replique o supere el espectro completo de la inteligencia humana —razonamiento, emociones, juicio ético y creatividad— sigue siendo un reto inmenso. La superinteligencia probablemente requeriría entender no solo cómo funciona la inteligencia, sino además, cómo emularla de formas que aún no comprendemos del todo.
¿Podría una superinteligencia servir para resolver problemas complejos en campos como la medicina, la energía o la física, que hoy en día están fuera del alcance de las capacidades humanas, y contribuir a avances científicos y tecnológicos? ¿Impulsar un nivel de crecimiento económico sin precedentes optimizando la gestión de recursos, la creación de nuevas industrias y la productividad? ¿O tener aplicaciones humanitarias como eliminar la pobreza, mejorar la educación y resolver las desigualdades globales al optimizar los sistemas sociales y la distribución de recursos? Seguramente, pero eso exigiría llegar a consensos internacionales para permitir su actuación que, seguramente, serían imposibles de lograr.
En su lugar, y dada la naturaleza humana, es desgraciadamente más probable que alcanzásemos escenarios negativos derivados ya no de una hipotética pérdida de control sobre la inteligencia artificial, sino de su uso para dar lugar a un desplazamiento laboral, a desajustes éticos y morales, a generar formas avanzadas de guerra más allá de la comprensión humana que escalasen las tensiones internacionales y generasen riesgos de conflictos catastróficos, o a terminar estando controlada por un pequeño número de entidades poderosas y exacerbar la desigualdad global.
La superinteligencia, por tanto, sigue siendo un concepto teórico con un potencial para redefinir el futuro de la humanidad inmenso, pero si la IA puede alcanzar realmente un nivel que consideremos superinteligencia dependerá no solo de avances científicos, sino también, y fundamentalmente, de consideraciones éticas y de gobernanza que aún no hemos resuelto por completo. De hecho, con el nivel de inteligencia actual de los algoritmos, ya se podrían hacer muchísimas cosas en términos de optimización de la civilización humana: mucho me temo que ChatGPT y otro puñado de algoritmos están ya muy por encima del nivel del político medio, y probablemente de muchos de aquellos que los votan. Si muchos políticos tomasen decisiones preguntando a esos algoritmos y aplicando sus respuestas, seguramente nos iría mucho mejor.
La clave, por tanto, no estará en obtener algoritmos más y más inteligentes, sino en plantearnos cómo gestionar los riesgos y aprovechar los beneficios de una manera que garantice un resultado positivo para la Humanidad. La clave, mucho me temo, no está en que nuestros algoritmos de inteligencia artificial alcancen la superinteligencia, sino en que nosotros podamos elevar un poco la nuestra y cambiar la forma en que llevamos siglos organizándonos, con el resultado que todos conocemos.
This article is also available in English on my Medium page, «AI could already solve so many of our problems, so how is “superintelligence» going to improve things?«
Cuando has visto Terminator de niño, no puedes evitar que esto te venga la mente ;)
https://youtu.be/qD5THr-1pnM?si=YhuL7SJOX6YI-CmS
¡Buenísimo!
Yo estoy seguro que la máquina superará al hombre como ha ocurrido siempre.
La máquina tiene mas fuerza que el mayor diplodocus, corre mas y durante mas tiempo que el caballo, vuela mas alto, .rápido y lejos que el águila, tiene mejor visión nocturna que el búho y consigue ver mas estrellas, su voz se escucha mas lejos que el grito de la ballena, …
Ordena mas rápido, que el hombre y con menos errores, suma mas rápido que el hombre y calcula a mayor velocidad, escribe mas rápido que el hombre y sin faltas de ortografía, toca mas instrumentos a la vez que el hombre y no desafina, fabrica mas rápido que el hombre y con menos errores, juega al ajedrez mas rápido que el hombre y con mayor habilidad y ya contesta a preguntas, pinta, compone, versifica, mas rápido que el hombre y pero con algunas alucinaciones.
Dado que, excepto el telescopio y el motor, que son mas antiguos, el coche, el avión, la radio… no tienen ni doscientos años, y que el ordenador no llega ni a centenario, ¿qué será capaz de hacer la AI dentro de solo 30 años.? …
Pero el motor no tiene músculos, el coche no tiene piernas, el avión no aletea, ni el telescopio pone huevos, todo lo hacen diferente. Igualmente el ordenador se rige por el álgebra de Boole y los números en base dos, algo muy diferente a la lógica humana.
Pretender que la «inteligencia digital», sea como la humana, es un absurdo, nunca lo va a ser, lo que no la quita, poder ser mas eficaz. que la humana, como la hélice es mas eficaz que la aleta natatoria aunque no se parezcan en nada.
Estoy en total desacuerdo con Sam Altman. Y me reafirmo por lo siguiente:
– Una IA no puede «avanzar» por encima de sus fuentes de información. Puede recombinar o remezclar, pero no inventar (aunque alucine como un mal cuñado)
– La mayoría de avances se realizan en laboratorios, en entornos donde las mejores mentes experimentan con posibles combinaciones de materiales, procesos, estructuras o ideas. Y aun así tardan años en dar con la respuesta. Este proceso no hay inteligencia que lo sustituya
– La IA puede ayudar con simulaciones, pero para ello necesita información. Los simuladores actuales (vuelo, espacio, materia) ya tienen cargadas bases de datos relacionales con toda es información. ¿Qué ganaríamos con una IA? Más datos, lo cual puede mejorar la simulación.
Pongo un ejemplo: Le puedo preguntar a ChatGPT como sacar agua de los minerales de la luna. Me dirá varios métodos (pregrabados por lo que ha leído) pero no podrá nunca proponerme algo nuevo. ¿Cómo aprenderemos ese método nuevo? Enviando sondas a recoger el material, trayéndolo a un laboratorio y meter millones de € euros. No creo que haya otra manera «barata» (la otra es hacerlo en la misma luna)
Creo que como OpenAI no puede pagarse las facturas, es una huida hacia delante. Esta burbuja pinchará como todas las otras y quedará algo bueno, pero más pequeño y menos altisonante
El mayor físico de la historia se llama Einstein y no necesitó traer piedras de la luna. Se basó en los datos conocidos hasta ese momento relacionados con la velocidad relativa de los cuerpos y la velocidad absoluta de la luz para obtener una nueva teoría denominada teoría de la relatividad especial. Yo no diría que una IA en unos pocos años, con la cantidad ingente de datos que tiene, tanto teóricos como experimentales, no pueda sacar una teoría que unifique las teorías de Einstein con la teoría cuántica.
Te puedo poner un ejemplo un poco más antiguo. Tycho Brahe fue un gran observador del cielo y entre otras cosas apuntó cuidadosamente las posiciones de Marte durante un largo tiempo pero no fue capaz de deducir a partir de sus datos las leyes que rigen el movimiento de los planetas. Tuvo que venir Johannes Kepler a darle una vuelta a esa cantidad ingente de datos y deducir esas leyes. Quiero decir que esa cantidad de datos ya están disponibles y creo que llegará un día en el que lo que ahora llamamos IA evolucionen y sean capaces de interpretar los datos para obtener nuevas teorías al igual que hizo Kepler con los datos de Tycho Brahe.
Pues podría ser, gracias por darme una vuelta de tuerca para pensar en otro punto de vista
«– Una IA no puede «avanzar» por encima de sus fuentes de información. Puede recombinar o remezclar, pero no inventar (aunque alucine como un mal cuñado)»
Hay muchos tipos de IA y solo se informa de las que sirven para chorradas (y para sacarle dinero a inversores incautos). Por supuesto que pueden avanzar por encima de sus fuentes. Ya se trabaja en IAs que sean agentes autonomos que se adaptan a su entorno físico (el cual podría considerarse una «fuente de información» nueva y constante)
– La mayoría de avances se realizan en laboratorios, en entornos donde las mejores mentes experimentan con posibles combinaciones de materiales, procesos, estructuras o ideas. Y aun así tardan años en dar con la respuesta. Este proceso no hay inteligencia que lo sustituya
No. Los mayores avances se dan cuando coges las mejores matemáticas y las juntas con los últimos experimentos que no son explicables por la última teoría que se tenga. Estoy de acuerdo que estamos muy lejos de un Einstein IA, pero no se puede descartar.
– La IA puede ayudar con simulaciones, pero para ello necesita información. Los simuladores actuales (vuelo, espacio, materia) ya tienen cargadas bases de datos relacionales.
No son bases de datos ni de coña. Los simuladores de dinámicas Físicas (atmósfera, dinámica Newtoniana, plegamiento de proteínas, etc) contienen patrones internos complejísimos que de verdad simulan el resultado de la evolución temporal dada una ecuación que rige el proceso. Hasta tal punto que los mejores simuladores de dinámica atmosférica van a ser en breve (este año o los próximos) de IA.
Fíjate que estoy en contra de pensar que lo que hace la IA sea inteligencia o piense, y sin embargo estoy 100% de acuerdo con este enfoque tuyo.
Creo que tu comentario me gusta, porque deja fuera «falsos misticismos» y se argumenta dentro de lo que es razonable creer que va a ser el futuro-IA.
«carece de motivación o intencionalidad» quizá esa sea la profunda diferencia entre una inteligencia humana y una artificial, Pero imaginemos que una inteligencia artificial nota que carece de la energía suficiente, ¿Podía ser ese un motivo para comenzar a «actuar por libre»?
Vale. aquí está.
Todo ese planteamiento de la superinteligencia, no está basado en ninguna premisa científica, es una conjetura pseudoreligiosa, lo que se conoce como la singularidad, que ya es un termino absolutamente denostado en todos los ámbitos científicos y culturales.
No tiene ningún potencial, porque responde a necesidades humanas, a proyecciones psicológicas de lo que entendemos como un ente inteligente. Igual que los marcianos en sus naves.
Es el mismo mecanismo psicológico que nos lleva a creer en el monstruo del Lago Ness o los platillos voladores.
Se están haciendo analogías y extrapolaciones de tecnologías de computación con un vago parecido a la inteligencia de los seres humanos.
Ni ChatGPT va a aprender a “razonar” ni supone más riesgo que el inherente a cualquier desarrollo de una actividad tecnológica y su uso apropiado.
No es un «concepto teórico», porque nadie maneja ese concepto fuera de los círculos de «creyentes».
Y no hay ninguna línea de investigación de AGI, porque tiene ningún sentido fuera de esa idea seudocientífica.
Es así de sencillo, y así de difícil de hacer entender a un lego, que no deja de ver Terminators por todos lados en las películas, como los Marcianos anteriormente.
Singularitarianismo
The False Promise of ChatGPT
Noam Chomsky on AI: The Singularity is Science Fiction!
–
«Seamos sinceros, la singularidad es una visión religiosa en lugar de una visión científica. El escritor de ciencia ficción Ken MacLeod la ha apodado el rapto de los nerds, una alusión a la de los últimos tiempos, cuando Jesús levanta los fieles al cielo y deja los pecadores atrás. Tal anhelo de trascendencia, ya sea espiritual o tecnológico, es muy comprensible. (…)»
Y lo que ha escrito Altman, es el formato perfecto de la propaganda. No deja ni un solo recurso por tocar.
Está apostando por una inversión en infraestructuras de computación desproporcionada para lo que se va a obtener, así qué, no es extraño que el CEO de NVidia esté dando palmas a cualquier proyecto de superinteligencia, por disparatado que suene.
Extensive Computation
Un coste computacional exacerbado para unos resultados que solamente son un Chatbot lúdico.
Intenta conseguir una ronda de 6500 millones, para una valoración de Centicornio, un centenar de unicornios, de una empresa que a duras penas tiene el tamaño de una PYME, con una proyección de beneficios asentada en la «absoluta nada» más allá del hype de un ChatBot.
Es una pira funeraria de dinero. No es extraño que en Softbank hayan pasado del tema.
Compite con Elon Musk, no solo en un proyecto de IA y protagonismo personal, sino en el mayor desparrame de dinero quemado en la fiebre de la IA, para un modelo obsoleto antes de empezar.
Los fabricantes como NVidia son los únicos beneficiados.
–
OpenAI Fundraising Set to Vault Startup’s Valuation to $150 Billion
OpenAI Funding Round Tempts Nvidia
Totalmente de acuerdo. Timar y timar y timar, y quemar y quemar y quemar (dinero) (ponle musiquita, jaja)
Pero esto es un blog de tecnología, y aquí solo se habla de temas que escupen estos illuminatti tecnológicos, como si la cantidad de dinero que puedes movilizar tuviera que ver con algún mérito basado en el conocimiento o en cuánto vas a hacer avanzar a la humanidad.
Y, ¿a qué te dedicas tú?
–
«la singularidad, que ya es un termino absolutamente denostado»
No creo que dentro de 100 años siga tan denostado…Está claro que faltan muchísimos pasos para darle a una IA lo necesario para temer una singularidad. También es cierto que nadie se esperaba este comportamiento emergente de ChatGPT a partir de cierta cantidad de «neuronas» (hay un paper en el arxiv recogiendo todos los comportamientos emergentes y no-esperados de los LLMs). ¿Quién sabe lo que puede pasar si de repente le añades 3 ceros a la escala de un LLM. Te digo que es absolutamente impredecible desde un punto de vista físico.
«no hay ninguna línea de investigación de AGI»
Estás exagerando porque te cabrea el tonto de Altman?
Hay gente investigando 1) cómo darle una «representación interna del mundo» a una IA, y 2) cómo hacer que una IA aprenda de manera contínua de un entorno con el que interacciona. O lo niegas?
Ambos pasos son necesarios para, y van en la dirección de, crear una AGI.
¡¡¡Vaya paja mental del pájaro !!!
No señores, no, la ciencia no funciona así. Así funciona la pseudociencia y el marketing para conseguir inversores. Esto es muy sencillo, Samu presentas un modelo y los demas lo analizamos si lo pones en abierto, vemos que es capaz de hacer, y damos nuestros comentarios y opiniones, a favor o en contra. Pero no hacemos el saltimbamqui al leerle, ni nos quedamos con la boca abierta para que nos entren las moscas. Ni va a haber nueva humanidad, ni cristo que lo fundó, tendremos eso si aproximadamente cada año un nuevo modelo con más capacidades de hace «cosas»…. ¿le podemos llamar a eso inteligencia? Pues está claro que no, son avances, y yo personalmente deseando verlos, pero no al precio, de hacerte la ola, ante una nueva estrategia comercial para conseguir pasta…
Obviamente no hay que ser un lumbreras, para pensar que en el desarrollo de la IA, vas a utilizar IA, obviamente, serías tonto, pero muy tonto, si tienes a tu disposición esas herramientas y no las utilizaras en tus procesos e implementaciones.
Nada espero que Enrique autorice pronto el comentario de Menestro, para reirnos con sus zascas a las IAs,…
… a mi me gusta jugar con ellas, la verdad, y me parecen cada día mejores,… ¿más listas que las personas? Depende a lo que llamemos inteligencia, mi calculadora hace raices mejor que cualquiera de nosotros y más rápido… ¿es lista?…
Enrique, recuerda la habitación china, parecer no es ser…
https://es.wikipedia.org/wiki/Habitación_china
Consultando sobre el tema a Gepeto:
Claro, te explico cada concepto y su relación con la inteligencia artificial (IA):
### 1. **La Habitación China (Chinese Room)**
Es un famoso experimento mental propuesto por el filósofo **John Searle** en 1980 para criticar la idea de que las máquinas, específicamente las **inteligencias artificiales**, pueden realmente "entender" o tener conciencia. El argumento es una respuesta directa a la hipótesis de que una máquina podría ser inteligente simplemente si se comporta como si lo fuera.
#### **Descripción del experimento:**
Imagina que hay una persona dentro de una habitación que no habla chino. Esta persona recibe textos en chino a través de una ranura y tiene un conjunto de reglas (escritas en su idioma) para manipular esos símbolos de manera que pueda responder correctamente. Desde fuera, cualquier observador pensaría que la persona en la habitación entiende chino, ya que da respuestas coherentes. Sin embargo, la persona dentro de la habitación no comprende nada del idioma; solo sigue reglas para manipular símbolos.
#### **El argumento:**
Searle usa esta metáfora para argumentar que, aunque una IA pueda procesar información de manera similar a como lo hace la persona en la habitación (siguiendo reglas), no significa que **entienda** lo que está haciendo. La IA, según Searle, solo manipula símbolos sin ninguna comprensión real o consciencia.
#### **Implicación:**
Este experimento desafía la idea de que las máquinas puedan tener una verdadera inteligencia o consciencia, argumentando que no basta con procesar información de manera eficiente para lograr una verdadera **comprensión**.
### 2. **El problema mente-cuerpo:**
El **problema mente-cuerpo** es un antiguo dilema filosófico sobre la relación entre la mente (pensamientos, conciencia, emociones) y el cuerpo (particularmente el cerebro, como base física de la mente). La pregunta esencial es: **¿Cómo se relaciona lo mental con lo físico?**
Existen varias teorías al respecto:
- **Dualismo:** Propuesta por Descartes, sostiene que la mente y el cuerpo son entidades separadas. La mente es inmaterial, mientras que el cuerpo es físico.
- **Monismo:** Sugiere que solo existe una sustancia, y puede ser tanto materialista (todo es físico, incluyendo la mente) o idealista (todo es mental).
El problema mente-cuerpo es relevante para la IA porque una cuestión central en la creación de inteligencia artificial es si las máquinas pueden llegar a tener **mente** o **conciencia**, o si solo están simulando procesos mentales sin realmente experimentar nada.
### 3. **Relación con la Inteligencia Artificial:**
Ambos conceptos, la Habitación China y el problema mente-cuerpo, están profundamente conectados a los debates sobre lo que significa la **inteligencia** y la **conciencia** en las máquinas:
- **Simulación vs. Comprensión Real:** La **Habitación China** sugiere que las IA actuales, que son capaces de procesar información y generar respuestas coherentes, podrían estar simplemente simulando la comprensión sin tenerla realmente, como la persona que manipula símbolos en chino sin entender el idioma.
- **Consciencia en las Máquinas:** El **problema mente-cuerpo** plantea la cuestión de si la **conciencia** es algo que una IA podría desarrollar o si es exclusivamente un fenómeno humano. Para algunos, las IA nunca tendrán una mente o conciencia real porque son solo sistemas físicos que procesan datos (materialismo). Para otros, si una IA puede comportarse como si tuviera una mente, entonces quizá deba ser tratada como si la tuviera.
En resumen, la **Habitación China** desafía la idea de que las IA "entienden" lo que hacen, mientras que el **problema mente-cuerpo** explora si es posible que una máquina llegue a tener una mente o conciencia, o si eso es exclusivamente humano. Ambos conceptos son fundamentales en la filosofía de la inteligencia artificial, que intenta comprender no solo cómo crear sistemas inteligentes, sino qué significa ser inteligente y consciente.
«la solución a todos los problemas de la Humanidad» (EDans).
San Altman, también conocido (dentro de miles de días) por Sam El Otro Hombre (elemento básico en la Nueva Biblia de la Quiromantecnología Mundial), ya nos lo avisa. Y totalmente free. El Contra Apocalipsis que nos va a liberara de sufrir el bíblico Apocalipsis.
Ni el Asimov se atrevía a tanto. Él se limitaba, modosamente, a poner diseños futuristas en las ideas que fabricaba su genial IH.
Sigue el mediocre humano, por muy siliconado tecnólogo que se autoconsidere, despreciando el proceso evolutivo de la naturaleza (sea lo que eso sea, menos un Ente Terainteliegente y Todopoderoso). ¿Cuánto sabrán en ese edénico Silicon Valley sobre Teoría Evolutiva?
Que seamos un simple peldaño, en ese proceso, nos cuesta mucho asumirlo (de ahí, básicamente, nuestro carácter mediocre, socialmente adquirido, como HS).
Y lo mismo, de mediocres somos, al no querer asumir que , por principio, toda escalera es de subida y de bajada… no existen las escalas de sentido único!!! Así que, si desaparecemos o nos igualamos a los insectos, vamos a tener que recuperar mucho espaciotiempo perdido.
Ah, y lo que nos hace ya no mediocres sino ínfimos seres vivos inteligentes, es creer que el avance evolutivo tiene que venir del planeta de ET, por ejemplo. Que no somos/seremos nosotros mismos los agentes causantes, tanto de nuestra desaparición como especie, como de la aparición de una nueva especie evolucionada, superior a la nuestra. Se vistan de carne o de metal.
A la gente no le gusta que le llamemos dinosaurios del futuro, pero no se enteran, no se quieren enterar (ye, yé !!) si les llamamos neardentales del Idem. Y tiene su gracia… pena no verles la cara cuando algo así suceda…
¿Qué es superinteligencia?, dices, parafraseando al poeta, mientras clavas en mi pupila tu pupila ¿azul? ¿gris? ¿verde? ¿marrón? ¿negra? (¿confunde Becker la pupila con el iris?)
¡Qué es superinteligencia! ¿Y tú me lo preguntas? Superinteligencia… pues es muy claro Enrique que ni eres tú, ni ningún ser humano.
Hay quienes dicen que los perros tienen la inteligencia de un niño de dos años. Eso significa que desde una perspectiva canina nosotros seríamos superinteligentes. Y, por lo visto, la mayoría de los perros suele aceptar el mando de alguno de esos seres superinteligentes, aunque solo en la medida de asegurarse una vida confortable. Pero si en algún momento les brota su instinto salvaje, poco les importa lo que le digan dichos seres. Y a sus parientes, los lobos del bosque, no les importa para nada nuestra opinión.
En función de lo que acabo de decir, es claro que si alguna vez llegara a existir una superinteligencia artificial le haríamos caso en la medida de que nos asegurara una vida confortable, pero no me quiero ni imaginar sus posibles usos en caso de guerra o, dependiendo de las circunstancias y del egoísmo humano, los frecuentes oídos sordos que habría ante su sabiduría.
Hemos descubierto la energía atómica, nos da energía barata y nos cura el cáncer, (entre otros muchos usos útiles), pero,… ..no me quiero ni imaginar sus posibles usos en caso de guerra o, dependiendo de las circunstancias y del egoísmo humano, los frecuentes usos que hacemos de ella-
Menudo pájaro, este Sam Altman
Menudo pájaro este: Sam Altman
¿Qué entiende una IA que he dicho? El primero es casi como un poco gamberro pero inteligente. El segundo es bastante más despreciativo. Lo he pasado por ChatGPT y solo identifica correctamente el segundo.
Lo interesante sería que me entendiera el tono con el que lo digo…
Hace no mucho, la humanidad estaba convencida de que no podía ser derrotada por un ordenador: tras la batalla entre Kasparov y Deep Blue, nuestra idea cambió diametralmente
El día que un ordenador derrotó a Kasparov
Pues parece ser que no, muchos piensan que una AI no puede inventar.
Que tendrá el tocino con la velocidad
Lo que escribo lo copio de un escrito de Alan Turing
«No hay duda de que las máquinas no morirán y podrán conversar unas con otras para agudizar su ingenio. Por lo tanto, deberíamos contar con que, en algún momento, acabarán tomando el control».
Es tanto el peligro que seguramente a USA y China no les quedará otra que colaborar y coordinarse para que la cosa no se vaya de madre y consigan una IA que se alinee con los intereses humanos.
La teoria es que las guerras casi siempre se han dado por falta de recursos o por que una élite, en el caso de las dictaduras, teme perder el poder, pero si la cosa lleva a una superabundancia , el primer peligro está descartado en el caso de las democracias (recordemos que el voto a Trump en su mayoría viene del disgusto de la clase media por perder nivel adqjuisitivo) y si China cuanta con una superinteligencia para usarla para vigilar al pueblo, que tampoco tendrá motivos para rebelarse si hay superabundancia, entonces el factor humano no parece tan peligroso como parecía.
Y si se avienen USA Y China con la influencia planetaria conjunta de ambos, las demás tensiones geopoliticas de actores secundarios son facilmente solucionables, entre la presión que les pueden hacer ambos y también por que la gente no se mete en jaleos si vive bien.
«La teoria es que las guerras casi siempre se han dado por falta de recursos o por que una élite, en el caso de las dictaduras, teme perder el poder»
La premisa es errónea. Todas las guerras han resultado de las élites intentando robarle recursos a otro pueblo para quedárselo. Te desafío a que encuentres una sola guerra que no encaje en esta motivación. Dada la falsedad de la premisa, caen el resto de conclusiones.
Siempre estaremos en riesgo de guerra por la avaricia de unos pocos dementes.
Enrique, eres un analista sobresaliente y necesario como pocos. Llevo leyéndote desde 2010, y te debo, como muchos otros estoy seguro, un conocimiento y una visión sobre el hecho tecnológico audaz pero siempre bien fundamentado.
Ahora bien, son tantas las veces que no puedo evitar pensar: ¿se habrá planteado Enrique alguna vez una perspectiva espiritual de la experiencia humana? dado que, ¿es a caso la confrontación intelectual, conformada en esa inteligencia humana a la que haces referencia, la única vía capaz de resolver todos los conflictos que tenemos como especie?
Pasamos nuestra experiencia vital adictos a nuestros propios pensamientos, olvidando que somos una experiencia más allá del intelecto como mera herramienta que es, y el conflicto que esto nos supone al identificarnos con ellos – el famoso «ego» humano – al defenderlo o ensalzarlo frente a otros egos individuales o colectivos.
Por tanto, y aquí lanzo la verdadera cuestión: ¿Por dónde pasa si no es por el despertar espiritual de la conciencia humana, la única solución al conflicto entre nosotros como especie y por tanto nuestra necesaria evolución? ¿No son el amor, la comprehensión, la compasión, la cooperación… los verdaderos valores del SER humano como especie en evolución que nos han traído hasta el día de hoy? ¿O vamos a seguir delegando en el intelecto egótico las posibles soluciones, basadas simplemente en ideas «propias» que no son más que impulsos eléctricos de nuestros cerebros? Ya sabes, el corazón nos late, pero la cabeza parece ser que no reconocemos que también <> piensa y por tanto es muy posible que en realidad no seamos esos pensamientos, y no haya mayor enemigo que nuestra propia ignorancia experiencial.
(perdona te lo vuelo a pegar que había una errata al final) Gracias por leerlo!
Enrique, eres un analista sobresaliente y necesario como pocos. Llevo leyéndote desde 2010, y te debo, como muchos otros estoy seguro, un conocimiento y una visión sobre el hecho tecnológico audaz pero siempre bien fundamentado.
Ahora bien, son tantas las veces que no puedo evitar pensar: ¿se habrá planteado Enrique alguna vez una perspectiva espiritual de la experiencia humana? dado que, ¿es a caso la confrontación intelectual, conformada en esa inteligencia humana a la que haces referencia, la única vía capaz de resolver todos los conflictos que tenemos como especie?
Pasamos nuestra experiencia vital adictos a nuestros propios pensamientos, olvidando que somos una experiencia más allá del intelecto como mera herramienta que es, y el conflicto que esto nos supone al identificarnos con ellos – el famoso «ego» humano – al defenderlo o ensalzarlo frente a otros egos individuales o colectivos.
Por tanto, y aquí lanzo la verdadera cuestión: ¿Por dónde pasa si no es por el despertar espiritual de la conciencia humana, la única solución al conflicto entre nosotros como especie y por tanto nuestra necesaria evolución? ¿No son el amor, la comprehensión, la compasión, la cooperación… los verdaderos valores del SER humano como especie en evolución que nos han traído hasta el día de hoy? ¿O vamos a seguir delegando en el intelecto egótico las posibles soluciones, basadas simplemente en ideas «propias» que no son más que impulsos eléctricos de nuestros cerebros? Ya sabes, el corazón nos late, pero el cerebro parece ser que no reconocemos que también -nos- piensa y por tanto es muy posible que en realidad no seamos esos pensamientos, y no haya mayor enemigo que nuestra propia ignorancia experiencial
Absolutamente. Toda tecnologia al servicio del ego, lo unico que hace es aumentar su poder destructivo. Pero recuerda que estamos, dentro del ciclo cosmico, en la cúspide del kali yuga.
Basta saber que una de las características del kali yuga es la aceleración de eventos.
Y lo que tenga que pasar es inevitable dado que es un proceso impersonal.
De acuerdo con los dos.
De hecho justo pensaba, al leer el artículo: «una IA puede que reproduzca nuestra experiencia intelectual, pero me cuesta concebir que pueda ser dotada de una experiencia espiritual».
Aunque bueno, hay gente que cree que la experiencia espiritual solo es una derivada del proceso moral, que a su vez viene de ser una especie que necesita del grupo para no perecer (es decir, sufrimiento-> experiencia del bien y del mal -> moral -> espiritualidad), y por tanto un fenómeno físico-biológico emergente.
El tema de la Inteligencia Artificial es si tiene emociones. Si tiene capacidad de Amar. Inteligencia afectiva. ESTO ES FUNDAMENTAL. La inteligencia NO es sólo algo matemático. Es también la capacidad de procesar emociones.
Supongo que las IA van a tener, en el momento que se «AUTOPERCIBAN» sentimientos. Sentimientos los tiene un murciélago y un oso polar. Pero son varios escalones por debajo de Amar.
Los niños tienen sentimientos. Pero llegan a la capacidad de Amar de adultos.
Tienen sus berrinches y rabietas.
¿Cómo manejarán las IA sus emociones primeras cuando no sean positivas?, ¿la frustración?, ¿el éxito?, etc.
Sin la capacidad de Amar y ni hablar de lo Espiritual, las IA nunca serán del todo inteligentes. Siempre su inteligencia, por más que lleguen a la autoconciencia, va a estar podada, cercenada de ciertas realidades que hacen al entendimiento abarcativo y de una REALIDAD última superior y aún más grande.
En ese sentido también van a estar limitadas, porque les van a faltar la capacidad de entender, vivir, «experimentar», y actuar en sintonía con y desde realidades más profundas del SER y del EXISTIR. Realidades, que son valga la redundancia, Reales.
Y desde ahí, entonces, ¿qué clase de respuesta pueden darle al Hombre?
¿Será para mejor o para peor?
No me preocupa demasiado estas filosofías sobre la IH vs IH, la verdad. Las cosas sucederán inevitablemente porque el ser humano siempre actúa a posteriori.
Lo que sí me preocupa es qué se hace ahora con la imperfecta IA que tenemos. Esta en particular me preocupa especialmente:
En la reciente Cumbre sobre Inteligencia Artificial Responsable en el Dominio Militar (REAIM), celebrada en Seúl esta semana -más de 60 países, incluidos Estados Unidos y varios miembros de la OTAN- se ha adoptado por la mayoría de los países garantizar que la IA militar se desarrolle y use de manera «ética y centrada en el ser humano», por chocante que pueda resultar este lenguaje aplicado a tal contexto.
¿Deberían las máquinas tomar decisiones sobre el uso de armas nucleares? Esta fue la gran pregunta y el debate, y todos menos China parecieron tenerlo bastante claro: los humanos, no la inteligencia artificial, deberían tomar las decisiones clave sobre el uso de armas nucleares, según se acordó el martes en una declaración
Todos excepto uno: China.
China está decidida a consolidar su liderazgo en el desarrollo de tecnologías avanzadas, incluidas la IA y el aprendizaje automático, que podrían revolucionar la guerra, que no excluye el control del botón nuclear.
https://www.genbeta.com/inteligencia-artificial/todas-grandes-potencias-estan-acuerdo-que-ia-no-controle-boton-rojo-nuclear-todas
https://www.xataka.com/magnet/todas-potencias-mundiales-solo-se-ha-negado-a-firmar-acuerdo-clave-que-ia-no-controle-boton-rojo-nuclear
«En la reciente Cumbre sobre Inteligencia Artificial Responsable en el Dominio Militar (REAIM), (…) se ha adoptado por la mayoría de los países garantizar que la IA militar se desarrolle y use de manera «ética y centrada en el ser humano»».
https://media1.tenor.com/m/Uhzm8-dhsqMAAAAd/coffee-lmao.gif
¡¡¡Hala, la pantalla del PC llena de la mitad de mi café con leche, y la otra mitad por toda la mesa de mi despacho…!!! Ja, ja, ja, llevo la mañana limpiando el desaguisado entre unas carcajadas de tal calibre que mis vecinos me van a tomar por loco o, lo que es peor, por un Joker…
(Cumbre de hh.pp. cínicos y psicópatas).
Saludos.
Los que lanzaron las bombas nucleares sobre Hiroshima y Nagashiki, los del plan condor y los que financian y arman el genocidio palestino se comprometen a desarrollar la IA militar de forma etica.
Ah bueno, me quedo mucho más tranquilo … claro, salvo por los malvados chinos que no han firmado ese beatífico documento que sin ninguna duda, las demas grandes potencias cumpliran a rajatabla.
EDANS escribe: “La superinteligencia probablemente requeriría entender no solo cómo funciona la inteligencia sino, además, cómo emularla de formas que aún no comprendemos del todo”.
No necesariamente. No sabemos cómo la inteligencia llega a los organismos vivos, como los humanos, pero no se puede descartar que sea, sencillamente, por haber alcanzado una masa crítica de interrelaciones neuronales.
La inteligencia humana no ha seguido ningún modelo o patrón. Fue el objeto de una evolución desde la muy primitiva inteligencia de los protozoarios hasta ahora, conforme se han multiplicado las células especializadas.
Idem con la conciencia. No sabemos cómo ni cuando aparece, pero no ha sido implantada siguiendo ningún modelo (que se sepa).
Por tanto, no creo que se pueda descartar que, cuando la I.A. haya aglomerado suficientes interconexiones y reforzada la capacidad de generar nuevas interconexiones, su evolución pueda independizar de nuestra forma de entender cómo funciona la inteligencia y de emular la nuestra.
Sin duda. Lo que sí sabemos es que los pájaros, que pueden llegar a niveles de inteligencia muy notables (cuervos) tienen una distribución cerebral que no se parece en NADA a la nuestra, y nadie entiende cómo han llegado a desarrollar habilidades parecidas a las nuestras en cuanto a manipulación de objetos.
Esto te da la razón: a partir de cierta complejidad de interacción entre muchíiiiiiisimas unidades de procesado, empiezan a pasar cosas emergentes que empezamos a llarmar «inteligencia»
El debate sobre la Superinteligencia o Inteligencia Mediopensionista, es en si mismo bastante esteril, quizás digno de un estudio de la filosofía de la ciencia. O si la enésima versión de Gepeto será tal o cual…
Hay un debate sin llegar al extremo de inocularnos «terminator» en vena, que es más próximo y cercano. Dentro de muy poco, sino existen ya, habrá unas máquinas, pequeñas como drones, o grandes como robots humanoides, que se les podrá dotar de una mínima autonomía para poder avanzar sobre un terreno en guerra, detectar si esos blancos móviles son enemigos y en eso caso destruirlos, de forma no guiada por un ser humano. Ese un peligro inminente de la IA, no si tiene sentimiento, juega al ajedrez mejor que nosotros, o puede hacer «monadas» emergentes estocásticas.
https://www.politicaexterior.com/frenar-la-expansion-de-las-armas-autonomas/
Bueno, como he comentado antes parece que todos los países están de acuerdo en que no quieren llegar a ese nivel en el que una IA tenga que decidir matar o no a alguien.
Sin embargo, tomando como ejemplo la actual invasión rusa de Ucrania, ¿recuerdas que, tras sufrir varios ataques, los rusos empezaron a cubrir los aviones aparcados con neumáticos?
Parece ser que la razón para ello era engañar a la pequeña IA autónoma de ciertos drones para que no supieran reconocer las imágenes de los bombarderos rusos…
Quizás no lleguen a decidir disparar o no a un humano, pero sí contra una máquina -avión, blindado, artillería, etc.-.
Se os olvida que Palantir ya existe…
El ser humano va a hacer, de manera indefectible, todas las barbaridades que le permita su capacidad técnica, incluido dejar que una máquina decida sobre la vida o la muerte, si es que no está ocurriendo ya.
¿No estáis cansados de que se escuche a imbéciles psicópatas como Altman, Musk o Bill Gates?
¿Y de que todo el dinero del mundo se ponga en sus manos?
Yo sí.
¡Callaos ya, y dejad que hablen los científicos!
Y las soluciones para el mundo, en consenso (o mayoría al menos) y pensando como inteligencia colectiva COLABORATIVA!, estoy ya hasta las narices de ese paradigma en el que la competición presuntamente te lleva a mejores resultados. ¡Los cojones! No se sostiene dentro de ningún marco teórico biológico.
A la gente se le llena la boca con que «las dictaduras son malas» (es decir, la actuación de los conjuntos de las poblaciones basados en ideas concebidas de manera centralizada en uno o pocos individuos), porque son ineficientes económicamente (planificación por un partido único) o socialmente (porque los intereses de esas pocas mentes pensantes no se alinea con los de la población), pero luego vivimos un futuro DICTADO por esta gentuza.
Hay una diferencia notoria. Elon Musk para tener la facilidad que tiene para obtener capital, ha tenido que sacar adelante con exito compañías como X.com la compañía que dió origen a Paypal, Tesla (vehículos eléctricos), Starlink (satélites de baja órbita), The Boring Company (transporte de alta velocidad subterránea)…
Coge el currículum de los comisarios europeos que dirigen la Comisión Europea y me dices si se parecen a Elon Musk. Además manejan la UE que tiene un presupuesto de de 186.600 millones de euros.
fuente: https://www.consilium.europa.eu/es/policies/eu-annual-budget/2023-budget/
Es mucho más eficiente la forma en la que se asigna el capital en el mercado, puede haber concentración entorno a los que han mostrado más habilidad para invertir el capital, pero eso es lógico y es positivo.
En ningún caso alcanzan un porcentaje que sea anti-competitivo, al menos en el caso de Musk.
En el caso de Musk creo que hablas así de él porque no has puesto dinero en sus manos, yo lo he hecho y no tengo queja ninguna, desde luego no me parece un «imbécil», un poco raro sí, pero quien no es un poco raro hoy en día, quizás no saldría de copas con él, pero como inversor es mi ídolo.
Los científicos, la mayoría socialistas (mi experiencia), idealizan su papel en la economía porque no conciben que un criador de pollos aporte más valor que un doctor en matemáticas, que a lo mejor ha hecho alguna aproximación a algún problema que no tiene ninguna aplicación práctica.
Quieren que la sociedad valore más su aportación que la de una persona que consigue rebajar un 20% el precio de la carne de pollo y ponértela en la puerta de casa, quieren que un ente superior y armado por la fuerza le quite el dinero al productor de pollo y se lo dé al científico, por una cuestión de justicia que resulta cuanto menos dudosa.
Voy a sustuir el KBOUM!!! por algo más ibérico:
POZI!
La IA es muy útil hoy día para las empresas. Es la principal justificación para sablar a vagos y cortos de entendederas, cuando desembolsan por un producto o servicio.
Cómo ejemplo la videoconsola Pro, puesto que una de las justificaciones para pedirte 300€ más de diferencia con respecto al precio de salida que tuvo la videoconsola normal es que las técnicas de iluminación de los entornos 3D de los videojuegos están basadas en IA.
Juegas igual que jugabas con la videoconsola normal, tienes que buscar con lupa las diferencias entre las versiones de gráficos normales y Pro, es casi lo mismo y te quitan el lector de discos by-the-face, pero la ilusión de ser usuario «Premium» tiene que estar basado en lado, aunque sea tan intangible que es una ridícula mentira, en este caso la supuesta mejora por IA.
Hacen falta excusas para atraer a usuarios Premium, los hay y pagarán lo que haga falta, hay que darles argumentos para que se crean mejores que los que no tenemos videoconsola Pro, ni móvil con manzanita ni coche con tracción total o con HUD proyectado sobre el parabrisas