Mi columna en El Español de esta semana se titula «Negaciones irracionales«, y trata – por enésima vez – de hacer que los lectores entiendan que una máquina ya no es lo que durante años entendimos por una máquina, que ya no es simplemente un autómata capaz de repetir unos pasos programados, sino que se ha convertido en mucho más, y que ya es perfectamente capaz de tomar decisiones de aprendizaje no supervisado, de escoger caminos aleatorios o de iterar diversos niveles de conocimiento para llegar a soluciones a las que un humano no había llegado previamente.
De acuerdo: nos hemos pasado décadas enseñando a las personas que un ordenador era un autómata, era una máquina que solo podía ejecutar los comandos que un programador le había introducido. La consecuencia de A siempre era B, porque así lo decía el programa, y porque así debía ser. A la hora de cuadrar la contabilidad o de hacer las nóminas, no queríamos que el ordenador fuese creativo en absoluto, solo queríamos que llevase a cabo una rutina determinada, sin errores, sin apartarse de lo que el programa establecía. Para la mayor parte de los usuarios, un ordenador sigue siendo eso, una máquina que debe hacer exactamente lo que el usuario le pide en una secuencia perfectamente previsible… y si no lo es, si hace alguna otra cosa, es un bug, un error. La idea de que el ordenador pueda tomar decisiones en función de la experiencia, pueda estimar distintas posibilidades o pueda optimizar un proceso basándose en otro que ha descubierto de manera aleatoria les resulta no solo intimidatoria, sino directamente inaceptable y peligrosa.
Todavía hay muchas personas para las que la idea de que un simple programa de GPS, alimentado con los datos de miles de usuarios, sea capaz de estimar el tiempo de desplazamiento en una ruta mejor que ellos les parece impensable, y de hecho, se dedican a llevarle la contraria con suficiencia, con aire de «qué va a saber el cacharro este». Pero vayamos un punto más allá: la idea de que un ordenador en la nube sea capaz de consolidar el tráfico de todos los usuarios que utilizan una aplicación de GPS determinada, y decida recomendar a la mitad de ellos que vaya por una ruta y a otros que vayan por otra, con el fin de alcanzar así una solución óptima, resulta completamente inaceptable. ¿Quién es esa app para decirme a mí por donde circulo, para arrebatarme mi libertad de hacer lo que me dé la gana?
Me desespera completamente la incapacidad de muchos para aceptar que una máquina puede desarrollar un nivel de inteligencia superior a la de los hombres. En realidad, basta con leer con cierta atención el relato de la segunda partida de Alpha Go contra Lee Sedol, en la que la máquina llevó a cabo jugadas no solo impresionantes o «bellas» desde un punto de vista humano, sino que además, eran imposibles de imaginar y no habían sido realizados nunca en otras partidas en la historia.
Para muchos, la idea de inteligencia está, por alguna cuestión cuasirreligiosa, vinculada con la naturaleza humana, unida a esta de manera indisoluble. La posibilidad de aceptar que una máquina no solo gestione el conocimiento y la experiencia previa de manera infinitamente más eficiente y precisa que un humano, sino que además, sea capaz de construir sobre ese conocimiento previo iterándolo y explorando alternativas de manera no supervisada, les resulta completamente anatema. Son incapaces de aceptar que una máquina pueda hacer algo más que repetir mecánicamente comandos programados por una persona, cuando la realidad es que las máquinas ya están mucho más allá, y pueden hacer cada vez más cosas para las que antes era preciso contar con una inteligencia humana. Es, en realidad, una incapacidad para entender el concepto de machine learning e inteligencia artificial, una imposibilidad casi metafísica para aceptar que hemos sido capaces de desentrañar los algoritmos que los humanos llevamos a cabo para aprender, y hemos sido capaces de reconstruirlos sobre una máquina.
En realidad, el problema viene de considerar al hombre como una especie de centro de la creación, una absurda visión antropocéntrica del mundo. En la práctica, y reducidos a la biología, somos simples algoritmos bioquímicos, y nuestras habilidades cognitivas son perfectamente paralelizables: cómo recordamos, cómo aprendemos, cómo hacemos inferencias, cómo deducimos, cómo solucionamos problemas. En muchos de esos procesos, de hecho, la máquina ya excede claramente las capacidades del hombre. ¿Qué le ocurrirá al mercado laboral cuando la inteligencia artificial consiga mejores resultados que los humanos en la mayoría de las tareas cognitivas? ¿Qué ocurrirá cuando los algoritmos sean mejores que nosotros recordando, analizando y reconociendo pautas? La idea de que los humanos siempre tendrán una capacidad única fuera del alcance de los algoritmos no conscientes es solamente una vana ilusión, no asentada en ningún tipo de conclusión seria.
Para prepararnos para el futuro, es indispensable entenderlo. Y partir de dogmas religiosos o del desconocimiento de los procesos que permiten a las máquinas aprender y desarrollar inteligencia no es la mejor manera de hacerlo.
This article is also available in English in my Medium page, “Why can’t some people accept that intelligence is not exclusive to humankind?»
Tiene gracia, porque todos los avances de la humanidad se deben a un porcentaje ínfimo de personas capaces de no dejarse arrastrar por dogmas, ideas preconcebidas o supersticiones.
El resto, la abrumadora inmensa mayoría de la especie, no sé muy bien qué concepto tiene de inteligencia, ni por qué se cree superior a cualquier otro primate.
Enrique, muy interesante. Pero hoy es el día que disfruto de mi nueva faceta como diseñador de juegos, y mi directiva principal me impone un respeto exquisito por las creencias y sentimientos de otras personas.
En otra ocasión.
;-)
–
ABB Robotics
Estoy de acuerdo, si obviamos creencias metafísicas no podemos descartar nada en cuanto al potencial de la inteligencia artificial. Ahora bien, creo que estamos en el comienzo y que la evolución es una incógnita en cuanto a meta y esfuerzo. Relacionado: The Singularity Is Further Than It Appears (2015) – http://rameznaam.com/2015/05/12/the-singularity-is-further-than-it-appears/
La IA actual es específica, no hay una IA que al mismo tiempo te conduzca un coche y te descubra una cura para el cáncer. A día de hoy la IA no dejan de ser una serie de técnicas a explotar por gente bastante especializada, echad un vistazo a los cursos de Udacity o Coursera.
Por otro lado creo que la inteligencia artificial es un avance más de la humanidad, las máquinas tienen poco mérito en ello :) Al igual que no hacemos sumas complicadas a mano veo natural que un coche mueva en volante por mi. Así yo me puedo dedicar a otras cosas. Esto mismo se puede extrapolar a toda la humanidad, quiza en lugar de hacer tareas que puede hacer una IA nos conviene más dedicar el tiempo a buscar nuevas respuestas o incluso nuevas preguntas.
No, la singularidad no habla de inteligencia. Habla de conciencia. Y por supuesto, aunque una máquina sea inteligente, que ya lo es, está aún muy lejos de desarrollar conciencia. Ahí hablamos de algo completamente diferente.
Más que diferente ese es el límite próximo a batir (o no si no interesa o conviene como dice el artículo que he citado), esa es la inteligencia a nivel humano en cuanto a posibilidades. El caso es que sin ella las aplicaciones de IA seguirán ligadas a proyectos tecnológicos específicos para cada área, no tan distinto a lo que son aplicaciones informáticas para cada ámbito. Sin ella cosas como un chat bot nunca tendrán más conversación que el mapeo de NLP a fuentes de datos, sin poder crear nuevas relaciones o ideas fuera del marco definido por el desarrollador, lejos de pasar un test de Turing.
Es un tema interesante ya que es precisamente ese mismo paso que nos diferencia a nosotros mismo del de otros animales. También puede llegar ya que como bien dices obviando lo metafísico todo debería ser posible pero me temo que aún queda. Es como si la IA actual fuera un animal de compañía, con una utilidad en otras escalas (mi perro no conduce mi coche) pero con bastante más capacidad de dar compañía (no lo cambiaría por un Aibo…)
Cito Wikipedia:
At the 2012 Singularity Summit, Stuart Armstrong did a study of artificial general intelligence (AGI) predictions by experts and found a wide range of predicted dates, with a median value of 2040.[7]
https://en.m.wikipedia.org/wiki/Technological_singularity
La conciencia está sobrevalorada, los chimpancés también la tienen.
La AGE no es necesaria para que las máquinas hagan el 99,9% de los trabajos. Bastaría conque una pequeña minoría de la Humanidad hiciera los trabajos de científico, ingeniero, programador, y tal vez también el trabajo de jefe supremo de algo (CEO, por ejemplo).
Digo «jefe supremo» porque no creo que la AGE sea algo necesario para los mandos intermedios, que es algo que podrían hacer las IAs especializadas.
El ejemplo del ordenador ajedrecista ya es una versión de máquina pensadora. Otro ejemplo de andar por casa (futurible?) puede ser una máquina que tiene en su programa la búsqueda de aumentar la eficiencia de un montón de empleados (humanos o no) y que le acompaña en su memoria un sinfín de formas de premiar, usadas entre humanos… tan difícil es pensar que la máquina será capaz de encontar una forma de premiar al personal?
La inteligencia es solo la recombinación de una serie de datos a partir de la cual sacamos un resultado (que pasará a ser dato a partir de ese momento)… en que se pueden llegar a diferenciar los algoritmos perfeccionados y los circuitos neuronales humanos? Y desde luego una máquina no tiene porque limitarse a usar la inteligencia racional… la cuestión no es que seamos insuperables evolutivamente, sino que tipo de integración buscaremos los humanos en los ecosistemas resultantes…
http://spectrum.ieee.org/automaton/robotics/artificial-intelligence/why-alphago-is-not-ai
Respecto a la incapacidad de aceptar inteligencia en las máquinas, creo que se dan dos circunstancias:
La primera es que las máquinas que nos rodean no muestran casi ningún signo de inteligencia. Vale, hay máquinas que ganan a los humanos al Go (un juego del que la mayoría no habíamos oído ni hablar) o al ajedrez (más conocido, pero no popular). Pero en nuestras casas (TV, electrodomésticos, etc.), empresas (programas de ordenador, etc.) o coches, poca o ninguna inteligencia, o acciones básicas (en coches, detección de cambio de carril, distancia de seguridad, etc.). Esta percepción cambiaría radicalmente si, por ejemplo, tuviésemos ya coches autónomos por las calles (que existen, se ven en YouTube), pero que la gente no se acaba de creer ni ha podido montarse en ninguno aún. Yo creo que esta percepción va a cambiar en muy pocos años, no solo por los coches autónomos, sino también por los asistentes personales tipo Siri, Cortana, Alexa, etc. (que ya entienden perfectamente el habla y empiezan a integrarse en casas y coches) cuando empiecen a entender los significados y podamos tener «conversaciones inteligentes» con ellos.
La segunda es, una vez aceptado que las máquinas van a hacer muchísimas cosas mejor que los humanos, aceptar que «piensan», «poseen inteligencia», etc. Esta es una discusión filosófica, y para mi estéril, ya que me da igual cómo lo hagan. Y efectivamente, ni la Via Láctea es el centro del universo, ni el Sistema Solar el centro de la galaxia, ni La Tierra el centro del sistema solar, ni algún día el ser humano será el único ser pensante sobre La Tierra. El mismo «shock» nos llevaríamos si algún día una máquina demuestra un teorema matemático no demostrado aún o si descubrimos nos visitan seres extraterrestres (con una inteligencia «distinta» a la humana), y no digamos si esos seres son máquinas…
El mismo “shock” nos llevaríamos si algún día una máquina demuestra un teorema matemático no demostrado aún o si descubrimos nos visitan seres extraterrestres
Llévate el «shock», lo de los extraterrestres está por descubrirse, pero desde hace años, los ordenadores demuestran teoremas, El primero descubierto fue en 1976, (¡hace 40 años!) y consistió en demostrar que era cierta la hasta entonces conjetura, que un mapa se podía pintar solo con cuatro colores. https://es.wikipedia.org/wiki/Teorema_de_los_cuatro_colores
El utilizar ordenadores para resolver teoremas es hoy una rama de las matemáticas, llamada ATP, (Automated theorem proving)
https://es.wikipedia.org/wiki/Demostraci%C3%B3n_autom%C3%A1tica_de_teoremas
Pero claro, por ahí saldrá alguien diciendo que eso no es resolver teoremas inteligentemente sino aplicando fuerza bruta. Quizá tenga razón, pero lo cierto es que una conjetura que nadie había sabido demostrar que era cierta, se demostró mediante un ordenador.
Deberíamos empezar por definir qué es la Inteligencia.
Una mosca tiene un cerebro del tamaño de la cabeza de una cerilla, hay una «inteligencia» capaz de hacerla volar entre corrientes de aire, esquivar los manotazos agresivos, detectar por si misma el «combustible» que necesita repostar y aterrizar boca abajo en un techo. Y aun le sobra espacio para encontrar otra mosca del sexo opuesto, copulara y reproducirse.
Pues bien, la IA esta en este momento a punto de conseguir pilotar un drón, encontrar por si moismo donde enchufarse a recargar sus pilas, eludir los intentos de captura que hagamos y aterrizar boca abajo en el techo, Aun no lo podemos hacer, pero estamos en vías de conseguirlo en poco tiempo, salvo lo de copular con otro dron y reproducirse , que lo veo todavía como muy lejano.
Pues bien, quienes nunca considerarán a una mosca como ser inteligente, serán incapaces de ver en la IA atisbos de inteligencia, Los que consideramos que la mosca, tiene una Inteligencia mínima, pero de la misma naturaleza que la inteligencia humana, no tenemos problemas en ver en una máquina capaz de catalogar fotografías, un nivel de inteligencia cierto, aunque a muchos años de la inteligencia de una mosca.
Por eso, somos un poco escépticos cuando se considera posible sustituir con IA el trabajo de un CEO, No porque no sea posible, sino porque aun falta bastante para que la IA pueda competir en inteligencia con el cerebro de una mosca. Lo cual no quiera decir que no reconozcamos como ocurre con el programa de GO que se hayan dado pasos de gigante en terrenos muy acotados, lo que ocurre es que consideramos que llevar una empresa es algo, no más complejo, pero si menos menos previsible, que decidir un movimiento de GO.
GORKI, la conducta de una mosca no es inteligente. Está programada biológicamente para hacer lo que hace. Los teoremas no los resuelven las computadoras por iniciativa propia. Se utilizan como «herramienta» al servicio de una voluntad, una intencionalidad y una capacidad de comprensión de los problemas matemáticos a resolver, humanas. Coincido contigo en que no existe una definición universalmente aceptada de inteligencia. Pero la mosca no es inteligente en el sentido en que lo es un chimpancé, un elefante, un delfín o, por supuesto, un humano. La inteligencia tiene, como condición, algo que solo podemos definir torpemente como la capacidad para salirse del campo de entrenamiento y crear algo nuevo. Si de veras Alpha Go ha sido capaz de ganar al campeón mundial de forma «creativa», habría que estudiar cómo ha sucedido. Esa es la única vía para considerar a una máquina inteligente: que encuentre soluciones nuevas que no vengan en el manual de instrucciones que le viene de serie. No que pueda hacer cálculos a gran velocidad o que sea muy precisa. El martillo no es inteligente aunque cumple muy bien su función. Es el que lo empuña quien realmente está dotado de inteligencia.
Entre Terminator y Matrix nos han llenado la cabeza de prejuicios …
¿Distorsionar la realidad es inteligente? Parece que no: es manipularla.
¿Una IA es inteligente?¿entiende?¿comprende? aprende desde cero como la mosca sin más ayuda que su ADN. No mezclemos mensajes,
Pongan en una caja negra «algo» y que un grupo de expertos puedan preguntarle y obtener respuestas, y por ejmeplo midan su CI de manera standard. Entonces dejaremos el entorno de la mediocridad bloguera y sus vendedores de burras.
Y mientras tanto, sea capaz de ganar partidas sistemáticamente a lo que quieras, conduzca un coche infinitamente mejor que tú. gane a concursos televisivos de preguntas y respuestas o tome decisiones sobre la hipoteca que te conceden o no, tú seguirás con las orejeras puestas, la cabeza en la arena, y repitiendo como un mantra «no es inteligente, no es inteligente, no es inteligente…»
Una máquina puede hacer muchas cosas como las que cita el sr. Bloguero. Pero eso no es pasar un test de inteligencia. Igual conduce Vd. Mejor que yo, sin conocerme, pero como lo haga como argumentar es un peligro público.
Quien ha dicho que no son inteligentes que les midan su inteligencia. Punto. Disfrute vd de su blog y de su unico punto de vista.
O sea, que todo lo que no ha pasado nunca un test de inteligencia, no es inteligente, ¿no?
Definan vds la medida, expongan y si convencen a la comunidad cientifica habran logrado zanjar el debate. Mientras tanto bla bla bla bla
Daniel Blake:
La medida es a ver quién juega mejor al Go.
Si para poder decir que algo tiene inteligencia ha de superar la prueba tuya esa del «preguntarle y obtener respuestas», entonces nos encontraríamos con que:
– No tiene inteligencia ningún animal, moscas y chimpancés incluidos.
– Tampoco tiene inteligencia ningún bebé.
– Sí son inteligentes los programas conversacionales que existen desde hace más de medio siglo, pese a que la mayoría de ellos NO son programas de IA.
Vamos, que soltaste la burrada, y te quedaste tan ancho.
Peligroso o no depende como se use. EEUU piensa utilizar el Machine Learning para que los aviones bombardeen solos. Asi que pues depende como se use. Yo aplicaria un comite de etica para lo que se desarrolle con eso, porque en esta vida, no todo vale.
Es verdad que me gusta todo el tema este del Deep Learning, las redes de convolucion etc.. muy interesante, y nos puede ayudar a entender mas el cerebro, pero las cosas hay que legislarlas porque el invento es una cosa y los intereses son otros
Un ejemplo para poner los pelos de punta.
Venden un kit con un valor de unas 600 dólares, con el que cualquiera en su casa puede hacer experimentos genéticos sobre una bacteria, Por poner un ejemplo, te dan un manual para cambiar los genes de la bacteria y hacer que sea fosforescente.
Como digo, esto se vende libremente para que los «Hakers» aficionados a la genética experimenten libremente en el cuarto de baño de su casa. http://www.technologyreview.es/blog/347/31388/juega-a-ser-dios-con-este-kit-para-modificar-el/
Bien, poner al frente de este Kit una IA que cambie aleatoriamente un gen y si por casualidad «ha mejorado» la bacteria, la suelte al medio ambiente libremente y que vuelva a cambiar un gen de la nueva «bacteria mejorada», hasta dar con otra «mejora genética».
Me asusto con solo pensar las bacterias que con unos miles de iteraciones del proceso, se podría salir de ese kit de genética a conquistar el mundo, y mucho mas, de pensar qué entenderá un algoritmo, por «mejora genética» de una bacteria.
Pues bien este es un futuro que que ya ha llegado aquí.
Pero Gorki, eso ya existe desde mucho antes que el ser humano, se llama selección natural.
Y algunas de esas bacterias, con unos pasos intermedios, acabaron convirtiéndose en seres humanos.
La diferencia es que durante siglos de evolución los cambios de una especie se compasaban con los cambios armonizados de la totalidad de la biosfera.
Aqui los millones de siglos de evolucion se reducen a pocas semanas como mucho y ninguna especie natural podrá acompasar su evolución a la de esas bacterias.
Por ahora las máquinas no tienen, por suerte para nosotros, capacidad de abstracción, sí capacidad de decisión. Podemos crear agentes inteligentes pero llamarle a eso capacidad de abstracción, le queda grande.
El día que las «máquinas» tengan capacidad de abstracción, serán inteligentes y entonces estaremos jodidos, porque llegarán a la conclusión que el hombre es lobo para el hombre y su decisión será eliminarnos y así se acaban los problemas.
¿Realmente interesa la inteligencia artificial total?
Yo diría que no, siempre habrá alguien con una mente retorcida que hará muy mal uso de ella, y entonces sí también estaremos jodidos porque las máquinas en eso sí nos ganan, «piensan» muchísimo más rápido, y a lo mejor alguna decide desconectar los respiradores de los hospitales porque los «seres» conectados a ellas generan un gasto innecesario al sistema.
Ojalá sigamos siendo antropocéntricos y no todos sigan sus ideales de darle una tablet y un smartphone a un niño al nacer como le tengo oído en alguna charla… prefiero ser más «humano» y prefiero leer cartas a los reyes algo como esta….
https://goo.gl/V96vl4
Inteligencia es una cosa, conciencia es otra. Las máquinas ya son inteligentes, pueden resolver problemas complejos e imaginar – de verdad que la palabra no está escogida por casualidad – soluciones nuevas. Pero no tienen conciencia. Esa es otra historia, y aún nos queda lejos.
En informática hablábamos de lenguajes de programación de propósito general (general porposing) como lenguaje diseñado para hacer software en una amplia variedad aplicaciones con todo tipo de objetivos.Son los lenguajes mas habitual del Cobol al Ruby on Rails, pero tambien hay lenguajes para uso específicos como SPSS para problemas estadísticos, MATLAB para cálculos científicos y de ingeniería, CAD/CAM para diseño y fabricación, que son especializados en tareas concretas que hacen muy bien pero no valen para hacer cosas fura de su area. Por ejemplo pese a ser insustituibles en el uso de estadísticas nadie haria una contabilidad en MATLAB
Quizá lo que este fallando en la IA sea la inexistencia de IA de General Porposing, Toda la IA que hemos hecho hasta ahora era IA especializada en un campo muy concreto y de terminado, como puede ser jugar al Go o conducir un coche, pero falya una IA que sea capaz de solucionar un crucigrama y a la vez ser utilizada para traducir del griego clásico es decir falta una IA general porposing.
Quizá con la machine learning estemos construyendo una IA de General Porposing y eso si va a ser el competidor directo de la inteligencia humana, pues eso es lo que es el hombre, una buena y elástica IA de General Porposing capaz de deducir en circunstancias nuevas y desconocidas a partir de la experiencia acumulada (por eso la experiencia es un grado) y de aprender para adaptarse a los nuevos requerimientos.
El competidor del hombre no es la calculadora por bien u seguro que sume, eo es una herramienta en sus manos. El competidor del hombre, es otro hombre, con otra inteligencia, capaz de aprender lo que estás haciendo y pronto hacerlo mejor que tu.
Machine lerning, puede ser el típico «trepa» sin escrúpulos ni sentido de lealtad, que aprende lo que estas haciendo, pronto lo hace mejor que tu y te desplaza de tu puesto de trabajo, porque está dispuesto a hacerlo por menos dinero..
Me parece un enfoque interesante. A falta de singularidad tenemos Machine Learning, mientras nos dé resultados de hecho casi mejor que los ordenadores sigan sin conciencia. Aunque quizá sin conciencia no es posible llegar a una IA general que nos resuelva todo quizá ni siquiera es deseable vistos filmes como Terminator :)
Veo las aplicaciones de IA como el compañero que necesitamos para llegar a siguientes niveles de conocimiento como cura de enfermedades que sin IA nos puede seguir costando décadas o búsqueda de nuevos patrones ampliando las matemáticas y física que hasta ahora conocemos.
Es difícil analizar la inteligencia artificial con un cerebro humano. Deberíamos empezar por separar las cosas: la inteligencia es una cosa y la Vida es otra. La raza humana es básicamente un sistema inteligente, que funciona basado en la Vida. La inteligencia le permite analizar el entorno y dominarlo, y la Vida reproducirse y haber evolucionado hasta su estado vital actual, que parece el estado final. Hay otros sistemas parecidos, como los gatos, que usan la misma combinación de vida e inteligencia, pero en distintas proporciones, y ninguna con tanto éxito. Cuando las máquinas sean capaces de aprender, la raza humana dejara para siempre el soporte de la Vida y pasará a su nueva etapa de evolución. La Vida sirvió hasta que pudimos liberarnos de ella. Ese sistema nuevo no será una raza, no estara firmado por individuos vivos, no se reproducirá, no morirá, su inteligencia crecerá sin límite y estará muy cerca de ser Dios. Pero, sabéis qué? Eso seguiremos siendo NOSOTROS.
Desconozco por qué. Quizás me ves como un simple troll. Sigues sin dar en el clavo pero yo seguiré poniendo el clavo.
No hace falta ser «inteligente» para desarrollar todas las tareas que enumeras. De hecho, hace falta ser «inteligente» sólo para realizar unas pocas tareas cotidianas.
No hace falta ser «inteligente» para conducir un coche ni para ganar al ajedrez al campeón del mundo. Hace falta serlo para hacerlo aceptando las limitaciones de la mente humana.
Yo me muevo en el mundo del las ICC y nunca habrá una máquina que me sustituya. Pueden producir mucho mejor que yo. Yo me aprovecho de su potencial para aumentar mi capacidad y la calidad de mi producción. Pero nunca seré sustituido. Porque las decisiones que yo tomo sí requieren de inteligencia.
Entiendo que en caso de la medicina, el derecho, la gestión, el pilotaje, la logística, la veterinaria, el periodismo… todas ellas encierran multitud de tareas que pueden ser desempeñadas por máquinas. Pero siempre habrá otras que no. Esas son, precisamente, las tareas intelectuales.
Si tú crees que el cajero de un supermercado realiza una labor intelectual, allá tú. Si crees que su labor será mejor realizada por un autómata allá tú. Si convences de ello a los dueños del supermercado, allá él. Y si eso se generaliza, allá todos nosotros y el mundo como lo entendemos.
Si ese mundo será o no mejor que este… pues ahí te doy la razón y creo que sí. Pero no lo traslado a todo. ¿Este blog escrito por un autómata? pues puede que sí. Pero no creo en un autómata que sea capaz de crear su línea editorial.
Tal vez deberías aclarar qué es lo que entiendes por ser inteligente. A día de hoy, para que una máquina conduzca un coche se requiere IA.
Mi propia definición de inteligencia es que esta es la capacidad de aprender de la experiencia. Los algoritmos comúnmente llamados de IA la tienen. Por tanto, verdaderamente son inteligentes, según mi definición, y verdaderamente se requiere inteligencia para conducir un coche.
El resto es ya si tienen niveles de inteligencia mayores o menores, y si son inteligencias más generalistas o más especializadas. Lo cual son DOS parámetros diferentes. Una inteligencia puede ser muy especializada, y al mismo tiempo de nivel muy elevado, como demuestra el ejemplo del Go.
Por cierto, una IA puede haber «nacido» siendo muy especializada, y después acabar siendo más generalista. Watson de IBM empezó siendo un sistema para ganar al Jeopardy!, y actualmente se está usando para cosa de una docena de tipos de tareas diferentes.
«Mi propia definición de inteligencia es que esta es la capacidad de aprender de la experiencia». Correcto, la tuya. Deberás aceptar que otros la definan de otra forma.
Nadie dice que la AI no sea el futuro ni que sea útil, lo que yo digo es que para mi sería inteligente cuando como dice Gorki des una AI de General Purposing a las que se le dote de consciencia y capacidad para sentir lo que la rodea, fuente increíble de conocimiento.
Acabaremos ahí? Seguro. Cuando? Ni idea. Hemos de estar preparados para todo lo que va a venir? Si, un gran debate se tiene que abrir.
Mientras tanto todo lo que no se puede medir no se puede mejorar, hagamos un patrón sobre el que poder medir las nuevas formas de inteligencia y podamos hablar todos de lo mismo.
Sino será como cuando se puso de moda llamarle a todo «ingeneria». Al final el término se diluye bastante…
Claro, la mía, y por eso le dije a José Enrique que debería indicar la suya. Calificó como no inteligentes tareas que normalmente, cuando las hace una persona, se considera que requieren inteligencia, y que las máquinas hacen mediante algoritmos de IA.
El problema que le veo a tu definición (que también es la del artículo del experto en IA que enlazaste) es que es demasiado restrictiva. Deja fuera a parte de los animales (una hormiga es un bicho bastante especializado), por el simple hecho de ser especies no generalistas. Y no digamos ya si además añadimos lo de la conciencia, que sabemos que también la tienen los chimpancés, pero que vete a saber si la tiene un perro, y que tal vez tampoco la tenga un bebé.
Viene a ser como decir que las máquinas no serán inteligentes hasta que sean tan inteligentes (y tan generalistas) como un humano.
Acepto cualquier tipo de definición del marco de la psicología (y no te creas… que el tema ya tiene tela ahí).
e, wikipedia ya tienes varias: https://es.wikipedia.org/wiki/Inteligencia
Respecto del enlace puesto por Raúl de spectrum, sí parece que limita mucho; pero es que si no caemos en el error que (a veces) comete la gente influidos por las valoraciones de Enrique.
El webmaster de este blog sabe muy bien dónde está el límite… dónde empieza la Inteligencia.
Pero rescatar fragmentos, muchas veces fuera de contexto, lleva a que se puede ver como «inteligencia» algo que, simplemente, estaba reservado a los humanos. Y no es así.
Los objetivos de la Inteligencia Artificial se establecieron en los 80’s y estamos a la misma distancia de alcanzarlos que entonces.. Porque no disponemos ni de la tecnología ni de los conocimientos necesarios para desarrollarla.
¿Qué tenemos? Porque pasos se han dado, evidentemente.
Pues acceso a ingentes cantidades de datos y una capacidad de proceso muy superior a entonces.
Míralo por el lado de la arquitectura, por ejemplo. La normativa y las posibilidades son tremendamente restrictivas. Con presupuestos estándar y necesidades genéricas, las posibilidades son sota, caballo o rey… cuentes o no con un arquitecto. Las viviendas son todas muy parecidas y se engloban en soluciones genéricas (piso de 2, 3 ó 4 habitaciones); y ya existen máquinas capaces de resolver ese puzzle. Pero OJO: ¿es eso arquitectura?
No peligra el trabajo del arquitecto (intelectual) sino el del desarrollador (iterativo); precisamente porque el trabajo de este no es (ni fue ni será) un trabajo que requiera del uso de la inteligencia.
Estaba reservado a los humanos, evidentemente… pero no es un trabajo intelectual.
José Enrique:
El caso es que antes la IA no servía para nada útil, por falta de potencia, y ahora ya sí tiene multitud de aplicaciones prácticas. Se le puede dar todas las vueltas que se quiera a la definición de inteligencia, aprovechando que nunca ha habido un consenso en su definición, pero lo cierto es que antes los programas de ordenador (los que servían para algo útil) no eran capaces de aprender de la experiencia, y ahora sí.
Y como aprenden, son creativos y resuelven problemas, porque las 3 cosas van en el mismo lote. Lo cual hace dudosa tu afirmación de que no pueden ser un arquitecto de verdad.
Esto ya no es especificar una secuencia de pasos, con algunas variables. Es crear (por ejemplo) una red neuronal profunda, y acabar encontrándote conque esa red neuronal verdaderamente aprende por sí misma a hacer una tarea.
NO es una cuestión de simplemente mucha potencia y muchos datos. Esos muchos datos son necesarios para que la red neuronal aprenda, pero no es el programador el que le dice cómo lo tiene que hacer, es la red neuronal la que aprende a hacerlo.
La ley de Moore os va a colocar en una posición cada vez más incómoda a los del «solo los humanos somos inteligentes». La IA está avanzando a pasos de gigante.
lo del ‘los del “solo los humanos somos inteligentes”’ sobra…
Tú mismo te has respondido. No se trata que yo defienda eso… eso es lo que defiendes tú: como las calculadoras multiplican y hace 100 años sólo los humanos multiplicaban; y cómo solo los humanos son inteligentes, entonces las calculadoras son inteligentes… al menos como los humanso de hace 100 años.
¿Redes neuronales? Ni nos imaginamos el futuro. Lo cierto es que el presente está a la misma distancia de ese futuro que hace 30 años.
No sé si recuerdas a Max Headroom… ahora pasaría el test de Touring; pero lo haría en comparación con los primates que pululan ahora por la TV; no porque haya avanzado la tecnología en la que se soporta.
;)
José Enrique:
Para nada. En ningún momento he dicho que un programa que calcula los mil primeros decimales de pi (algo que ningún humano ha llegado a hacer) tenga ni una pizca de inteligencia. Lo mismo el programa que ganó a Kasparov en condiciones de torneo, no era de IA, no tenía ni pizca de inteligencia. Mi definición de inteligencia ya te la puse en un mensaje anterior. AlphaGo sí es IA, y sí es inteligente, según mi definición.
Me quedo con la extraña sensación de que no sé si has llegado a enterarte de qué va esto. Olvida por un momento la palabra inteligencia. Ahora, desde hace no muchos años, los ordenadores son capaces de aprender de la experiencia, y por tanto son capaces de resolver problemas y ser creativos. No puedes decir que las cosas son como hace 30 años.
¿El test de Turing? Vaya, más de lo mismo. El test de Turing no te lo pasa ningún animal, y ni tan siquiera un niño de 4 años. Sí que acertó Enrique en el título de su artículo.
Olvida tú por un momento la palabra «artificial» y me repites lo que has dicho.
Tu definición de inteligencia queda muy coja. Hasta para la máquina que ganó a Kasparov.
AlphaGo es inteligente porque aprende. ¿Sí?
AlphaGo aprende… punto. No es inteligente por eso.
José Enrique:
AlphaGo aprende… y es creativo, y resuelve problemas. Watson se creó para ganar al Jeopardy! Watson aprende. Watson se está usando ahora para cosa de una docena de tipos de tareas distintas.
Hace un año un ciego se dio una vuelta en coche por Austin. Conducía una máquina que aprende. Solo eso.
¿De verdad estás absolutamente seguro de que lo que tú haces no es solo aprender, ser creativo, y resolver problemas? Empezaste siendo un bebé que solo sabía llorar. ¿Por qué piensas que en ti hay algo más aparte de aprender, ser creativo, y resolver problemas?
Me temo que el problema entre tú y yo es de perspectiva.
Las características que tiene que satisfacer un progrma para ser considerado IA: http://www.fgcsic.es/lychnos/es_es/articulos/inteligencia_artificial
Los mayores avances en IA se realizaron, a nivel teórico, en los 70 y 80.
A partir de ahí, todo quedó parado.
Lo que hay ahora son aplicaciones concretas de aquellas investigaciones: sistemas expertos.
Esos sistemas no razonan, simulan que razonan.
Estás… de… broma… ¿no? Trabajo en esos temas desde hace tres años, participo en una compañía dedicada a eso, y los avances más importantes en machine learning se han dado PRECISAMENTE en los últimos años, que es cuando todo el entorno del MLaaS, Machine Learning as a Service, se ha construido desde cero. Antes no había nube, no había recursos computacionales suficientes y no había otros elementos necesarios para ello. El artículo que enlazas, dicho sea con todo el respeto, es completamente introductorio y está publicado en una revista del CSIC de nada menos que 2012. De verdad, ni te imaginas lo que ha pasado desde entonces, y mucho menos hasta qué punto nos va a afectar…
José Enrique:
En ese artículo vienen varias definiciones, así que volvemos a estar en las mismas.
Estos últimos años están siendo muy intensos en investigación de IA. Diversas empresas se están gastando grandes sumas de dinero en esas investigaciones, consiguiendo mejoras espectaculares a cada día que pasa.
Y no, no tiene nada que ver con «simular que razonan». Aquí tienes una buena introducción al deep learning:
https://devblogs.nvidia.com/parallelforall/deep-learning-nutshell-core-concepts/
Es una serie de 4 artículos, y son larguitos, pero te recomiendo su lectura para que veas en qué consiste esto del deep learning. Al final del cuarto artículo viene una descripción del funcionamiento de AlphaGo.
Enrique:
Sí… sí me lo imagino. Y entiendo y estoy de acuerdo en prácticamente todo lo que posteas y enlazas.
Pero esto es un hilo entre Krigan y yo acerca de lo que cada uno entiende como Inteligencia y lo que tendría que cumplir la IA para ser considerada tal.
Lo que quiero hacer ver con este enlace es lo que se consideraba que debería ofrecer la IA en los años 60.
No estamos hablando de aprendizaje iterativo.
Es cierto que en estos temas me quedé un poco en 2012 ;) y en base a eso apunto mi opinión… que puede valer, o no, aportar o no… e incluso estar equivocada.
Krigan:
Espectacular info en el enlace. Puede ser inteligencia o no serlo XD, pero de verdad es interesante. Gracias!
Volvemos a lo que dije en el punto #11 «Deberíamos empezar por definir qué es la Inteligencia.»
Si hablamos de cosas diferentes al utilizar la palabra «inteligencia» por fuerza llegaremos a conclusiones diferentes.
Posibles definiciones
«Inteligenia humana»es lo que tiene «alma», es decir sabe discernir entre el bien y el mal. (por ahora) exclusiva del género humano
«Inteligencia animal» la que es capaz de sacar conclusiones del mundo que la rodea y actuar en consecuencia. Por ejemplo las migraciones de los animales o la Machine lerning
«Inteligencia mecánica» o IA la que es capaz solo de sacar consecuencias de su propia experiencia o de la de sus afines (si están conectados en grupo) Por ejemplo la conducción automática
«Inteligencia» a secas o servomotores, actuar de la forma variable pero previsible en funcion de circunstancias cambiantes por ejemplo el mando de recoger l el toldo cuando hay viento.
Un buen inicio pero no tengo suficiente información como para definir machine learning como inteligencia animal. Como sienten las máquinas el mundo que las rodea?
Habrá que darle una vuelta y leer más. Me lo apunto.
Los seres vivos sienten el mundo que los rodea a través de los sentidos y las máquinas a través de sensores, Los hay de todos los tipos, de distancia, de presión, de luz, de acidez, de temperatura, de co2 , de peso, …. En ese sentido las máquinas están mejor dotadas que nosotros, un telémetro mide con mas precisión la distancia a un objeto, que lo que puede hacerlo una persona.
Eso ya se utiliza en servomotores. unos sensores captan los cambios de lo que les rodea y los motores actuan en consecuencia.
Para Gorki. Te contesto aquí pues no me deja sobre el tuyo. Ya se que hay sensores, pero, como interpretan un sabor? (más allá de los componentes) Por que hay gente que le gusta una cosa y a otros no? Como programas eso?
Raúl SB:
Que si conciencia, que si sentido del bien y del mal (esto lo dijo Gorki), que si programar gustos… nada de esto tiene que ver con la inteligencia.
Algunos estáis tratando esto en plan «vamos a ver si la máquina es humana», cuando la cuestión es simplemente ver si la máquina es inteligente.
Hasta el experto en IA que enlazaste cometió este error, cuando dijo que para que hubiera «verdadera IA» era necesario que la máquina tuviera motivaciones. Una máquina no necesita tener ninguna motivación para ser inteligente.
A veces se dice que un aparato es inteligente cuando tiene un procesador y la capacidad de ejecutar una amplia variedad de programas de terceros. Por ejemplo, smartTVs vs. teles «tontas». Pero esto es solo una manera informal de hablar, no tiene nada que ver con la IA.
Lo de «el bien y el mal» me parece que es como lo de la tan cacareada conciencia, es apuntar demasiado alto. ¿Hay ganas de perderse en las alturas porque no interesa ver el suelo?
No veo que exista ninguna diferencia entre lo que llamas «inteligencia animal» e «inteligencia mecánica». Nadie tiene una percepción absoluta de todo lo que le rodea, nuestros sentidos son (muy) limitados.
Hay frecuencias que no oyes (ultrasonidos), frecuencias que no ves (UV e IR), tienes un campo de visión tan reducido que eres incapaz de ver la mayor parte de lo que pasa a tu alrededor, hay olores que tu perro huele pero tú no, y eres completamente incapaz de percibir el campo magnético que te rodea, necesitas una brújula para saber dónde está el norte. Etc, etc, etc.
Un simple sensor de algo, por muy limitado que sea, ya empieza a ser percibir el mundo que nos rodea. Hasta un smartphone (con o sin IA) tiene diversos sensores. Más aún, ¿qué pasa si no tienes sensores pero te comunican los datos del mundo real? ¿Y si es una simulación y te comunican los datos de un mundo virtual? La inteligencia sigue siendo posible en estos casos.
Como dijiste, un dron está ya a punto de ser tan inteligente como una mosca. Y en ciertas tareas, la IA supera ya al ser humano.
https://www.quora.com/How-difficult-is-it-to-become-a-military-drone-pilot
https://www.airforcetimes.com/story/military/2016/03/21/career-rpa-pilot-job-drone/81883080/
http://m.goarmy.com/careers-and-jobs/browse-career-and-job-categories/transportation-and-aviation/unmanned-aerial-vehicle-operator.m.html
Algo le verán los militares a las personas cuando las prefieren a sistemas autónomos.
Raúl SB:
Habría que ver qué entienden por «pilotar» el dron. En tu último enlace la descripción es más del estilo de «experto en reconocimiento aéreo».
Curioso. Se cierran todos los hilos en los que participo. Pillado el mensaje.
Raúl SB:
¿Qué hilo cerrado ni qué niño muerto? La web deja de ofrecer el botón de comentar pasado cierto nivel de indentación. Eso nos pasa a todos, Enrique incluido.
Una IA se habría dado cuenta ;-P
Y yo todavia tengo que escuchar a mi familia decir de vez en cuando, para qué inventaron el internet si eso solo cosa mala es. Creo que si les digo que las computadoras «piensan», van a decirme que son cosas del diablo. Si es que no le prenden fuego a mi computador despues de decirles eso.
Tenemos divergencias básicas en el concepto inteligencia. Y pienso que
también en el de conciencia. Lógico…
Recoger una serie de datos y recombinarlos mediante ecuaciones que van
generando los circuitos neuronales podía ser una aproximación a ser
inteligente. Eso lo hace la mosca y el CEO (o megaespecialista en
cualquier materia intelectual!). Hai niveles de inteligencia por
supuesto ( nada de CI, please!).
Si unimos los circuitos que producen ecuaciones (algoritmos?) de tipo
racional con los circuitos que producen emociones (no son algoritmos?)
podíamos tener algo así como unha inteligencia global… que solo (!)
necesita un centro de datos sobre decisiones éticas (o similar) para
tener algo como conciencia…de tomar decisiones y decidir si son
convenientes o no para los humanos, máquinas inteligentes……
La pregunta es: en que parte del proceso no cabe introducir el término
máquina (megaperfeccionada, desde luego… incluso por si misma)?
Dejemos a un lado los dogmas. La verdad es que ahora mismo uno puede leer el programa de cualquier aparato, mientras que el cerebro humano todavía no lo comprendemos del todo.
No se trata de tener o no tener consciencia. Se trata que la IA no deja de ser el nombre de una clase de algoritmos conocidos. Y esos algoritmos funcionan sobre el clásico ordenador autómata. Mientras eso no cambie, yo (que conozco el tema) no me creo nada que exista realmente inteligencia artificial, fuera del uso de esas palabras como metáfora para referirse a determinados algoritmos, como ya he dicho.
Según eso, existe la posibilidad de que el ser humano no sea inteligente, ¿no?
Seria interesante someter a alguna IA a un test de medicion de inteligencia ( WAIS por ejemplo ) y observar los resultados. ¿ O ya se habra hecho!!??
MUADIB, se ha sometido a máquinas a distintas versiones del test de Turing, que mide la capacidad de una máquina para tener una conducta lingüística similar a la humana, hasta el punto de que un interlocutor humano la confunda con una persona mediante una conversación por chat. Hasta ahora no se habían cumplido las condiciones establecidas por Alan Turing, aunque he leído que hace 2 o 3 años se consiguió. En cualquier caso, el test de Turing no garantiza nada, porque la computadora podría pasar por humana debido a la poca habilidad de su interlocutor para juzgar si está hablando con un ser humano o con un puñado de algoritmos.
El cerebro humano es la inteligencia absoluta. Ninguna máquina puede superar la inteligencia del cerebro humano
Salvo al ajedrez, al Go, al Jeopardy!…
No sé qué demonios tiene que ver la inteligencia con algo relativamente importante.
Quiero decir… ¿podríamos admitir que las máquinas ya son más inteligentes que los humanos? Vale sí, todo lo que tú quieras ¿Y?
Desde el momento en el que ese «¿Y?» No tiene respuesta, porque no la tiene, todo este debate es un simple campeonato para ver quién mea más lejos. Porque vamos a ver… ¿en qué momento real se escoge a alguien en su trabajo por ser más inteligente? Y no me vengan a decir…
«En cualquiera, hombre»
Porque en muchos trabajos puede dirigir un equipo un tipo muy inteligente que sencillamente sea un cretino. Así que no me vale de nada en absoluto… la inteligencia por sí misma como algo meramente adulador. Nadie querría trabajar con Sheldon Cooper, por dios.
Y es curioso, porque ¿de qué inteligencia estamos hablando?
Porque el discursito del post está muy bien pero deberíamos de recordar que hay varios tipos de inteligencia y uno de ellos es la emocional. Supongo que Enrique, obcecado en recordarnos a todos que nuestro trabajo lo va a acabar realizando una máquina, pensara que para realizar sesiones de terapia, sin ir más lejos (y recordando que las enfermedades mentales van a toda mecha a coronarse en el primer puesto en Occidente), también podrían ser realizadas por inteligencias artificiales.
Es obvio que es mejor ir a un terapeuta robot, que a un terapeuta humano.
(Ya digo yo antes de nada, que como en el amor o lo concerniente a lo profesional y/o laboral, no tiene porque valer cualquiera, así que no venga os con el prejuicio de que si no funciona el primer terapeuta es que todos son una basura).
Claro…, por eso quizás uno de los artistas del siglo XX más obcecados en defender la verdadera esencia humana, Hayao Miyazaki, preguntaba hace unas semanas ¿qué sentido tenían unas animaciones por ordenador que había desarrollado una inteligencia artificial? Y acababa reflexionando acera de la esperanza que estábamos perdiendo en la humanidad como tal.
Ya lo decía el rwplicante en su famoso discurso final y con ello se convertía en un verdadero humano pues. Ese discurso no iba de inteligencia, iba de otra cosa muy distinta, de la verdadera esencia de la existencia y no por ello de la de estar ligado a la religión y a la inteligencia.
El debate ofrecido está bien, pero el enfoque sencillamente es terriblemente malo, siendo educado.
A mí me encantaría trabajar con Sheldon Cooper. De hecho, veo su serie cada vez que sale una nueva temporada ;-P
Ya más en serio, si un equipo va a estar formado por varias IAs, en lugar de humanos, entonces igual resulta que la inteligencia emocional no importa en ese equipo.
Ni idea de si un terapeuta IA sería peor que un humano. Pero no esperes que el mercado laboral se sostenga a base de terapeutas, de la misma manera que tampoco se sostendrá a base de científicos, ingenieros, y programadores, incluso si las IAs no llegan a ser tan avanzadas y generalistas como para ocupar esas funciones. Es el 90% (o el 99%) lo que debe preocuparte, no el 1-10% restante.
No veo que la esencia humana esté en peligro, ni que necesite ninguna defensa.
Hombre…
Si hablamos de liderar un equipo, según en qué aspectos considero que un humano haría el trabajo mejor que una máquina.
A esto me refiero debido a que si vamos a elegir, dado el discurso propuesto, al más inteligente, estamos apartando a personas no tan inteligentes pero con mejores dotes a la hora de tratar con otras personas. Por ejemplo.
No digo que tenga que ser así, ya que muy inteligentes pueden ser muy empaticos y liderar equipos, pero creo que se entiende.
Por otra parte, no, no creo que el mercado se mantenga a base de terapeutas, solo digo que esa labor correspondería hasta el momento y muy a medio plazo como poco a un humano, dadas las características. Aunque el humano sea menos inteligente que la máquina.
Porque claro, quizás lo más inteligente sea enamorarse de X persona concreta o tener que convivir aunque no estés enamorado, pero las relaciones de pareja no funcionan en base a lo que se supone que es lo más inteligente ¿verdad? Pues el resto es igual y no por ello en absoluto peor.
No intentaba decir que se soportará el ámbito laboral en base a ese oficio pero si otorgarle la correspondiente importancia que creo que tiene en este contexto, la interacción humana.
Como tú dices, el 90% restante es lo que debe preocuparme.
Lo siento pero no tengo por qué. Y es que en esto suelo coincidir con Enrique, el avance tecnológico es imparable y nos adaptamos a él en mejor o peor medida y «no pasa nada» ¿debería de preocuparme?
Con lo que no coincido con Enrique es en ese énfasis que parece que todo lo tecnológico huela necesariamente a superior.
Y mi defensa viene dada por la defensa inicial del respeto que merece la inteligencia no humana. Perfecto, pero no me parece que sea algo relevante. Quizás es que pertenezco a ese 10% del que hablas que no encaja con el 90% de la sociedad y prefiere centrarse generalmente en lo más esencial y la inteligencia está bien pero no es esencial para la vida (espero que se entienda ese contexto).
No, no creo que todo lo tecnológico sea superior. Hay tecnologías malísimas. Y a mí mismo hay muchas cosas que me gusta hacerlas «a lo tradicional», no hay nada de malo en ello. Pero cuando una tecnología destaca frente al hombre en aspectos importantes que pueden ser utilizados como arietes competitivos, poco importa lo que nos guste o no nos guste, las compañías lo utilizarán en su dinámica de mercado, y se terminará imponiendo. A eso me refiero con «superior»: cuando un banco se dé cuenta y demuestre que su algoritmo de riesgos mejora muchísimo los resultados que obtenía con su departamento de riesgos lleno de sesudos directivos con muchos años de experiencia, el resto de los bancos prescindirán de esos departamentos, y por mucho que al cliente le gustase (sic) hablar con ellos y ser juzgado por ellos, ya no podrá ser así, será juzgado por un frío algoritmo, que decidirá si le dan o no la hipoteca con muchísima más precisión y estimando infinitamente mejor el riesgo de que no la devuelva. Voy por ese lado, no por otro, y me parece que ahí si es más posible que estemos de acuerdo, ¿no?
Totalmente de acuerdo con eso. No tengo disputa ;)
Ni en personas ni en máquinas tiene por qué ser el más inteligente. Un cartero no tiene que ser especialmente inteligente, pero sí es importante que sea cuidadoso y no eche las cartas en el buzón equivocado.
Un servidor de correo electrónico no tiene ni pizca de inteligencia (no usa IA), pero cumple perfectamente su función, y seguro que se equivoca mucho menos que el más cuidadoso de los carteros. ¿Se puede usar IA para hacer eso mismo? Sí, pero estarías desperdiciando recursos.
Conducir un coche sí requiere algo de inteligencia (también en las máquinas, se usa IA). Eso no significa que el Google Car sea más inteligente que un taxista. Pero tiene visión 360, no se cansa, no tiene sueño, etc. Y es muchísimo más barato.
Lo mismo para detectar tumores en imágenes médicas, e infinidad de otros ejemplos que podrían ponerse. Para un enorme montón de trabajos hasta ahora hechos por personas no se requiere mucha inteligencia, y la que se requiere no es general, sino especializada (reconocimiento de imágenes, por ejemplo).
Inteligencias aparte, si el 99% de los trabajos pasan a hacerlos las máquinas, tal vez no haya muchos equipos de humanos que liderar. Dirigiendo una empresa bien podría haber un solo humano, el CEO.
No entiendo ese concepto de «inteligencia especializada»
Existe la especialización de alguien inteligente a través del conocimiento y el entrenamiento.
Un cartero (como tal se le presupone inteligente) no precisa de usar su inteligencia para realizar su función.
Eso es como pensar que hay que inventar la rueda 4 veces para montar un coche. Una vez tienes las piezas, se ensamblan siguiendo un protocolo… un orden. Ese orden puede variar, se puede mejorar. Pero va a ser el mismo siempre hasta que se cambia.
Ahí el que empuja la puerta en el carrito hasta el sitio en donde tiene que estar puede ser un humano, un robot o un elefante.
José Enrique:
Un niño, desde que es un bebé, aprende a lanzar cosas a base de cogerlas, tirarlas, y observar los resultados. Pasado un tiempo (años), acaba por ser capaz de lanzar un objeto casi tan bien como un adulto.
El comportamiento del niño, ¿es inteligente?
Si quieres, al resultado final (lanzar un objeto con precisión) se le puede llamar habilidad, en lugar de inteligencia, pero es una habilidad adquirida mediante la inteligencia.
De la misma manera que los niños aprenden a lanzar, también aprenden a coger cosas, lo cual es algo que supone cierta complejidad. ¿Por dónde lo coges? ¿Aprietas más o aprietas menos al cogerlo? En esa estantería, ¿hay un solo objeto o hay 2 que están juntos? Si quieres coger un determinado objeto, de entre varios que están apilados, ¿cómo identificas al que quieres coger? ¿Tienes que apartar antes otro objeto para poder coger mejor el que quieres?
En los almacenes robotizados de Amazon siguen trabajando un buen número de humanos. Son los llamados pickers. Los robots Kiva les llevan unas estanterías transportables, y en un estante está algo que alguien acaba de comprar online. La función del picker es coger ese algo. Ese trabajo lo siguen haciendo personas porque las máquinas todavía no son buenas cogiendo cosas.
Una vez una máquina con IA (pongamos una red neuronal) ha aprendido a hacer algo, puede repetir ese algo mucho más rápidamente de lo que le costó aprenderlo. Más aún, en algunos casos, en sistemas en producción, ni siquiera hay una red neuronal, sino un circuito que contiene los «pesos» (variables internas que la red neuronal aprendió que son las correctas para hacer una tarea).
Así la tarea se hace gastando menos recursos. Con el inconveniente, eso sí, de que ya no hay mejoras ulteriores, el circuito especializado no es capaz de seguir aprendiendo, a diferencia de la red neuronal, que seguiría aprendiendo, refinando su propio comportamiento, también en un sistema en producción.
Quizás esas máquinas, al ser inteligentes, se revelen contra su CEO o asciendan a una máquina por encima de su CEO, o cambien de estrategia y se centren en liquidar a la competencia, o decidan no fabricar mucho para no desgastarse demasiado, o incluso vayan a la huelga. Jajaja.. Queda mucho por aprender aún de la inteligencia humana como para aventurarnos ya a tales hipótesis del 99% de trabajos hechos por máquinas.
Alejandro:
En mi opinión, vale más prevenir que curar. Deberíamos estar articulando mecanismos para hacer frente a esa nueva situación. De hecho, en algunos sitios ya están empezando a hacer pruebas piloto de RBU.
Krigan:
Volvemos a lo de antes. Pensar en por qué en el 95% de los trabajos los humanos pueden ser sustituidos por máquinas nos lleva a plantearnos la falta de necesidad intelectual para realizarlos… el mínimo valor que el operador humano aporta a ese trabajo; aunque sea desde el punto de vista de lo poco que el comprador está dispuesto a pagar «de más» por ese valor.
Salvo, claro está, el «submundo» (o «inframundo») del comercio de lujo.
Esto no tiene nada que ver con la «inteligencia» de la máquina sino con que tal «inteligencia» no hace falta para hacer una hamburguesa de McDonalds… pero sí para elaborar una “alegoría del atardecer laminado; engalanado con esencias de lágrimas rojas de primavera”
Podríamos llamar perfectamente «inteligencia» a lo que hacen algunos servicios. aplicaciones o máquinas actuales, dado que tienen capacidad para tomar decisiones y aprender, aunque bueno sería usar el término apropiado, «inteligencia artificial», para distinguirlo perfectamente de la «inteligencia humana».
Ambos términos producen inteligencia, pero no son comparables por la propia definición de ambos.
El término «inteligencia artificial» es artificial, valga la redundancia: creado y dotado de algoritmos definidos por el humano, por tanto, con sus limitaciones humanas.
Mientras el término «inteligencia humana» implica infinidad de aspectos por descubrir aún por la ciencia de la psicología y la psiquiatría.
Por tanto, no son comparables, por mucho que nos empeñemos con concursos o juegos de ajedrez en hacer una comparación limitada. Sí, una máquina puede ganar a un humano en la toma de decisiones, pero de forma parcelada en un aspecto de la inteligencia. Se hacen avances para lograr sistemas y máquinas con inteligencia artificial, al igual que se descubren problemas asociados: miren si no el fracaso el año pasado del bot Microsoft Tay con su transformación maligna.
Esto hace pensar que es un campo bastante abierto aún, como lo es la propia psicología y psiquiatría. Quizás sea bueno avanzar poco a poco sobre seguro, al ritmo que avance la psicología y psiquiatría, antes de crear inteligencia artificial superior que no sea controlable y derive en un Tay II destructivo o que suponga un perjuicio para la humanidad. Y termino con la famosa primera ley de las tres leyes de la robótica de Asimov, pues son leyes que los sistemas actuales no están teniendo en cuenta: “Un robot no hará daño a la Humanidad o, por inacción, permitir que la Humanidad sufra daño”.
Esa no es la Ley 0?? Desarrollada posteriormente a las famosas 3 leyes.
La inteligencia no es exclusivamente humana. De hecho, ya se reconoce a un gran número de mamíferos superiores con capacidad de hacer inferencias lógicas, de comunicarse con un lenguaje complejo, etc. Algunos incluso atribuyen inteligencia a las aves basándose en ciertos experimentos. Pero sí hay razones serias (que no son fruto de ningún dogma quasi religioso) para negarse a aceptar que las máquinas o los programas de computación puedan ser «inteligentes» de forma «parecida» a los humanos. Me remito a argumentos procedentes de la filosofía de la mente como el experimento mental de la habitación china de Searle. Es cierto que el Deep Learning, las redes neuronales, etc., parecen haber superado algunos de los impedimentos que se le suponía a la IA. Pero todavía hay un problema a superar para poder considerar a máquinas o programas como inteligentes: no hay una definición universalmente aceptada de inteligencia.
Uno de los aspectos que parecen atribuibles a la inteligencia es que se trata de un mecanismo adaptativo. Pero una máquina o un programa no necesita adaptarse al medio en el sentido que lo hace un organismo vivo. Otros problemas podrían ser los derivados de la ausencia de un aparato sensorial o emocional como el de los animales más inteligentes y en las personas, y que se sabe que influyen en los procesos cognitivos. Alan Turing ya escribió en su época un artículo en el que afirmaba que todo lo que se le supone como imposible a una máquina puede ser superado tecnológicamente, y puso ejemplos concretos. Seguramente es posible dotar de aparatos similares a robots. Pero también hay que tener en cuenta que los seres humanos no computamos la información mediante símbolos abstractos. Solo usamos la lógica en los estratos superiores del razonamiento, mientras que la mayor parte de nuestra actividad psíquica es inconsciente… Las máquinas podrán realizar tareas de forma mucho más precisa o eficiente que los humanos, escoger una ruta óptima entre A o B, etc. Pero van a tener que demostrar algo más para que podamos equipararlas a la inteligencia humana.
Sería mucho más facil ponerse de acuerdo primero en lo que NO es inteligencia. La HABILIDAD no es inteligencia. Inteligencia significa «capacidad de entender». Un humano utiliza eso junto a su habilidad para adaptarse al medio o controlarlo. Una persona tetrapléjica no es capaz ni de mover un dedo, sin embargo puede entender el universo completo. Todos conocemos el ejemplo. La inteligencia no tiene que ver con ganar partidas a nada ni con realizar tareas de ninguna clase, ni con hablar ningún lenguaje natural ni hacerse pasar por humano. No es eso. Es solamente la capacidad para ENTENDER. Es decir, la capacidad de manejar conceptos que abstraen un entorno y permiten formar ideas sobre el mismo para anticipar su comportamiento y descubrir su estructura subyacente. Después de eso, si quieres, puedes usar todas tus habilidades para fabricar maquinarias o construir puentes. Pero no antes. Si partiésemos de esta base tan simple, seguro que aceptaríamos que un ordenador puede tener una inteligencia mucho más avanzada que cualquier civilización de individuos basados en la biología.
Pero uno de los requisitos que suele repetirse muy a menudo cuando se manejan definiciones de inteligencia es la capacidad para encontrar soluciones nuevas (no programadas, no escritas) a problemas. Y en cualquier caso, si se trata de una cuestión de entendimiento, los ordenadores o los programas de computación lo tienen muy difícil… El algoritmo de Google, que probablemente es lo más avanzado que existe en procesamiento del lenguaje natural humano, no «entiende» nada… Aunque acierte en un número estadísticamente muy significativo de veces.
La habilidad adaptativa de los seres humanos es «la inteligencia», en ausencia de otros mecanismos. Un tetrapléjico puede entender el universo aunque adaptativamente tiene otras dificultades, obvio. Tiene a sus espaldas milenios de cultura humana que se lo permiten (además de un gran intelecto). Pero es que yo no estaba hablando de eso. La inteligencia ha surgido en un contexto de evolución en un medio complejo que ha perfilado una gran consciencia del entorno (perceptiva, social y cultural en el caso de los humanos). A eso me refería. No podemos cargar un gran volumen de información en un ordenador o en una red neuronal y esperar que se repliquen estas facultades cognitivas que han tardado millones de años en aparecer y evolucionar. El tema del lenguaje natural lo estableció el padre de campos científicos como la computación o la robótica (Alan Turing), y lo hizo precisamente porque imitar una conducta lingüística tan compleja como la humana requiere gran capacidad de comprensión. Respecto a la partida al Go, la cuestión es que, mientras Deep Blue pudo ganar a Kasparov varias veces al ajedrez, que consiste en aplicar unas inferencias deductivas, AlphaGo ganó a un juego al que se le presupone la necesidad de la intuición o hasta creatividad para poder ganar.