Apple, la inteligencia artificial y el pragmatismo

IMAGE: Apple

Mi columna en Invertia de esta semana se titula «¿La manzana inteligente?» (pdf), y es un intento de explicar la estrategia de Apple en un ámbito, el de la inteligencia artificial, en el que no tiene las cosas para nada fáciles.

La presentación de apertura de la compañía en su WorldWide Developers Conference (WWDC) de este año sirvió fundamentalmente para que tratase de solucionar el problema reputacional que supone, a mediados de 2024, tener mucha menos inteligencia artificial incorporada a sus productos que sus competidores, y hacerlo de una manera en la que no se evidenciasen las carencias de la compañía. Básicamente, intentar hacer de la necesidad virtud, algo muy complicado en entornos tecnológicos.

¿Dónde está el problema fundamental de Apple? Que, debido a su extrema política de respeto a la privacidad, una de las cuestiones que la compañía más explota en términos de imagen y diferenciación, cuenta con una generación de datos derivada de sus operaciones infinitamente inferior a la que pueden conseguir compañías como Meta, Google, Microsoft y otras. Ya en el año 2015 se decía que las políticas de privacidad de Apple repelían a los científicos de datos que trabajaban en ese ámbito, hasta el punto de que, a pesar del atractivo de trabajar en la marca de la manzana, preferían aceptar ofertas de otras compañías en las que tuvieran más datos con los que trabajar. La realidad es que la situación desde entonces no ha cambiado, salvo por una cuestión: la llegada de la muy ineficiente algoritmia generativa, que hace que esas necesidades de datos se disparen hasta prácticamente el infinito, lo que agrava el problema de la compañía.

Visto así, ¿qué podía hacer Apple? Básicamente, jugar con la A de su marca y llamar a su alternativa «Apple Intelligence» para jugar con las siglas AI, y posicionarla como «AI for the rest of us«, es decir, la inteligencia artificial para los que no quieren complicarse la vida con la tecnología, pero quieren tener algunas funcionalidades que utilizar en su día a día. Y, sobre todo, no sentirse inferiores a los que tienen dispositivos de otras marcas. Aburrida y práctica… pero eso no es necesariamente malo. Lo dejamos al final, le dedicamos un ratito después de haber cansado a los asistentes con la interminable sucesión de plataformas de la compañía, y lo vestimos como algo maravilloso como solo Apple sabe hacerlo.

Visto así, el enfoque es claro: se desarrollan prestaciones de inteligencia artificial básicas que funcionan on device, en el mismo dispositivo, sin comprometer para nada la privacidad. Básicamente, machine learning sencillito. Pero como eso, por muy buenos que sean los procesadores de los iPhone, sólo da de sí lo que da de sí, se desarrolla un segundo nivel para determinadas consultas que funciona sobre servidores de Apple, con Apple Silicon, y que se comportan como lo hacían hasta ahora los de, por ejemplo, Apple Maps: se recibe la consulta, se responde, y se borra a los diez minutos. Tus datos no se almacenan y no son accesibles ni para la propia compañía.

Aún así, la situación es clara: no hay manera de que una compañía que renuncia a los poderosísimos chips de Nvidia, convertidos en estándar del mercado, sea capaz de rivalizar en prestaciones con los algoritmos de sus competidoras. Por tanto, el tercer nivel de oferta a los usuarios de Apple es que disparen sus consultas gratuitamente a ChatGPT 4o mediante un acuerdo en el que no sabemos cuanto dinero cambia de manos, y le da un espaldarazo como líder de la industria: los usuarios preguntan, su dispositivo les avisa de que su información va a rebasar los muros de Apple y por tanto, está expuesta al uso que OpenAI quiera hacer de ella, pero reciben una respuesta similar a la que obtendrían si simplemente abriesen su app de ChatGPT y tecleasen su prompt ahí. Además, Apple ha afirmado estar en disposición de ofrecer a sus usuarios otros algoritmos a medida que llegue a acuerdos con las compañías que los explotan. ¿Que se enfada Elon Musk? Ya se le pasará.

¿Buena solución? No, pragmatismo. Si lo acompañamos de un poco de maquillaje a la ya vieja Siri para que no parezca tan comparativamente tonta (afortunadamente para la compañía, ahí sigue la Alexa de Amazon, que es aún más limitada), y construimos la posibilidad de trabajar cross-app, algo que beneficia tanto al usuario como a los desarrolladores de aplicaciones (no olvidemos que esto era el WWDC, y su público son ellos), podemos construir una plataforma, con sus APIs y sus herramientas de desarrollo, que permite fácilmente que cualquier app recurra a una inteligencia artificial razonable, capaz de mejorar su propuesta de valor. Y de paso, se estimula a los usuarios a que actualicen su tecnología y sus dispositivos para poder acceder a este tipo de prestaciones.

Puestos a convertir limitaciones en ventajas, la jugada no es del todo mala, como mucho un tanto obvia. Y mientras tanto, Apple seguirá confiando en que l desarrollo de la inteligencia artificial del futuro se haga un poco más, valga la redundancia, inteligente, y deje de pretender resolver las limitaciones del aprendizaje con cantidades ingentes y desmesuradas de datos, para optar por otro tipo de modelos más eficientes. Porque en el juego de la fuerza bruta de los datos, Apple tiene más bien poco que hacer.

ACTUALIZACIÓN (23/06/2024): Adrián Espallargas me envió algunas preguntas sobre este tema y las incluye en su artículo para ABC titulado «La incierta irrupción de Apple en la guerra de los algoritmos» (pdf)


This article is also available in English on my Medium page, «Apple Intelligence, or simply pragmatism

41 comentarios

  • #001
    Chipiron - 12 junio 2024 - 12:06

    Muy de acuerdo con tu percepción, Enrique. Y no veo necesariamente mal el enfoque de Apple. Después de todo, tener un chatbot a lo «her» tiene una utilidad práctica (a día de hoy que comete fallos) limitada.

    Las partes buenas se pueden entrenar con ML, como corregirte un texto para que quede bien redactado o hacer una traducción simultanea sin retrasos, todo ello integrado en el bloque hardware/software de Apple. Vaya, una IA limitada, tirando a ML pero que se haga parte del core de los SO apple no me parece una mala solución para empezar.

    Pero si, con el increible ChatGPT4o Apple no tiene nada que hacer por falta de datos y su (supuesta) intención de proteger la privacidad de las personas.

    De todas maneras, en un futuro no muy lejano, creo que con algoritmos más eficientes, tal y como dices en el articulo, no se necesitarán billones de datos para un LLM, y ahí es donde Apple podría golpear fuerte gracias a su control tanto del hardware como del software.

    Saludos!

    • Chipiron - 12 junio 2024 - 12:09

      Por cierto, o me equivoco, o las acciones de Apple han subido considerablemente después de dicha presentación? Ayer volvió a avanzar a NVidea, que por cierto, ha tenido un bajón que no acabo de entender (pero sí dicen que hay un motivo) y volviendo a estrechar el gap con Microsoft.

      Igualmente, sigue en el club de «los tres billones» junto a Microsoft y Nvidia…

  • #003
    Dani - 12 junio 2024 - 12:36

    Montar un ecosistema cerrado con monopolio total de un extremo a otro tiene sus cosas buenas, claro.

    Consigues diferenciarte así de todos los demás (la elección es iPhone o … Android, con sus mil marcas). Y con eso puedes vender tus productos con márgenes mucho mejores que el resto.

    Pero también tiene sus cosas malas, claro.

    Compitiendo contra todo el resto del mundo… tarde o temprano te quedas atrás. Es sólo cuestión de tiempo.

  • #004
    Gorki - 12 junio 2024 - 12:44

    Para bien o para mal Appie se ha casado con la privacidad y pese a lo que se diga es algo que no quita el sueño a nadie y en cambio es una losa para los futuros desarrollos de Apple

    • Chipiron - 12 junio 2024 - 13:13

      Bueno, en parte lo que dices es cierto. Pero la falta de privacidad si que quita el sueño a muchos, es un valor a tener en cuenta.

      Apple lo cumple? A veces lo dudo, pero como lo anuncia tanto, si se descubriera que hace lo mismo que google con Android se montaría la de dios.

      Le corta las alas para la IA? Totalmente, pero era algo que unos años atrás aún no se venia venir. Ahora es fundamental, pero si en un futuro aparecen algoritmos que aprenden con pocos datos, puede que se vuelva al «square one». No olvidemos que un niño aprende lo que es un tractor con un par de fotos, no necesita miles.

      Un abrazo, Gorki.

      • Gorki - 12 junio 2024 - 14:27

        En el futuro ¿quien sabe que ocurrirá?. Pero en el pasado había una minoría, (amplia), que compraba Apple, porque siendo una marca con prestigio, era fabricante de muy buenos y cuidados aparatos que hacían , (mas o menos), lo que todos los aparatos mas baratos.

        ¿Seguirán comprando Apple si sus aparatos tienen menos prestaciones que los chinos, por mucha imagen de marca que tengan y que sean aparatos sólidos y resistentes?. Está por ver, pero la imagen que darán es de viejunos. Algo parecido a quien compra Volvos, Solidos y seguros, pero anticuados.

        Y lo cierto es que la privacidad añade muy poco a sus diferenciación. Habrá quien lo valore, pero son los menos dentro de la minoría que compra Apple y nadie en la inmensa mayoría que no lo compra.

      • Dedo-en-la-llaga - 16 junio 2024 - 19:41

        ¿Que si se descubriera se montaría la de dios? ¿Cuándo? ¿Dónde? ¿En qué planeta vives? Porque en este NO pasaría NADA de NADA… ¿Apostamos?

  • #008
    Lua - 12 junio 2024 - 13:21

    «Por tanto, el tercer nivel de oferta a los usuarios de Apple es que disparen sus consultas gratuitamente a ChatGPT 4o «

    y eso, es precisamente lo que quiere el usuario. Lo demas, cagamandurrias. En definitiva, tienen lo mismo que si abren el navegador, van a openAI y hacen alli su consulta.

    Aqui no ha habido innovacion alguna. Solo un acuerdo de «ahorrale a mi usuario 4 clicks y una suscripcion»… o no…

    «ChatGPT access is free without needing to make an account, but if you’re already a paying customer, you can connect your account and get access to premium features.»

    Me lo veo:
    – «oye Siri, dame esos datos X»
    – «encantado de ayudarte, pero que sepas que me voy a dar un garbeo por 4o»…..

    Por otro lado, no veo que eso se vaya a transformar en mas ventas de dispositivos (los analistas tampoco). Y en el mientras tanto, van a dejar fuera de juego a los dispositivos que no lo soporten…

    Creo que si Jobs estuviera por ahi, hubiera repartido una somanta de hostias ya hace tiempo… y aun duraria.
    ———

    Chipiron: «dicen», «hablan»… tu y tu mania de no leer… el propio eDans lo explica: » Las
    acciones de la compañía han caído tras la presentación, lo que indica que
    los analistas esperaban anuncios más importantes»

    Te doy el dato:

    Evolución de las stocks durante el último mes:

    Nvidia: +28.45%
    Apple: +3.42%

    Evolución durante el último año:

    Nvidia: +196.18%
    Apple: +4.52%

    No es una carrera. No importa quien va por delante. Importa «que y como» para que los usuarios saquen provecho.

    • Chipiron - 12 junio 2024 - 14:35

      Pues del 10 de junio a 11 ha pasado de 196 a 207… algo habrán hecho bien.

      Y Nvidia, estos ultimos dias de 125 a 121..

      Leo lo que me interesa, apetece y da la gana.

      Yo no estoy jubilado como tu.

      • Lua - 12 junio 2024 - 14:57

        Yo no estoy jubilado… retirado voluntario desde hace 8 años, que es diferente… y aun asi, sigo trabajando para no aburrirme en otras cosas (y porque soy el jefe y tengo que dar ejemplo). (Eso te pasa por no leer)

        Efectivamente, si solo te fijas en la evolucion de un dia veras cambios. Lo mismo que le ocurre a todos los valores de todas las empresas.

        Le discutes a un dato ofrecido por eDans, no por mi.

        Como no lo lees, te lo repito: «No es una carrera. No importa quien va por delante. Importa «que y como» para que los usuarios saquen provecho.»

        Sigue leyendo lo que te interesa…

        • Chipiron - 12 junio 2024 - 15:01

          Pensaba que esa relación toxica era cosa del pasado, pero ya veo con el enlace que no es así.

          No me busques para seguir con ese tipo de relacion.

        • Chipiron - 12 junio 2024 - 15:06

          Otro tema, es cierto «que es el dato de un dia». Pero del dia de la presentación al dia siguiente. Por eso lo he puesto:

          Presentación: Lunes 10am
          Valor: Martes 4pm.

          • Lua - 12 junio 2024 - 15:43

            eDans… porque nos mientes…??? XDDD

          • Chipiron - 12 junio 2024 - 17:20

            No tiene porquè haber mentido… depende de la hora a la que lo mires.

            Puede haber una primera reacción más irracional y luego calmarse las aguas..

      • Chipiron - 12 junio 2024 - 14:57

        Sin acritud, lo digo en serio; Es la realidad, un jubilado tiene más tiempo que un trabajador y padre de familia con hijos aún no destetados.

        Debo ser un bicho raro, pero siendo un funcionario no se de donde sacar el tiempo para todo el trabajo que me busco con proyectos, publicaciones, etc.

        Cuando me jubile tendré tiempo de apoyar mis afirmaciones e intuciones con enlaces. Mientras tanto me guio por mi sentido común y particular visión de las cosas, pocas veces me ha fallado esa aproximación.

        Saludos.

    • DEFCON 2 - 12 junio 2024 - 14:55

      «Quien controla el pasado controla el futuro, quien controla el presente controla el pasado»

      Preferible releer a Orwell, que ver el youtube de Carlos Santana sobre el evento: «quiero y no puedo2

  • #017
    menestro - 12 junio 2024 - 13:37

    Hace dos días ya expliqué que existen otros abordajes diferentes al de Nvidia y más eficientes, y claro, cuando quieres usar LLM en dispositivos móviles, son la solución de elección.

    El modelo que ha utilizado Apple no son «prestaciones básicas On device» ni se limitan a convertir a Siri en otro chatbot, todo lo contrario, el Private Cloud Compute procesa todo tipo de datos que confluyen en el dispositivo.

    No es un chatbot que usa Siri como asistente al ChatGPT.

    Una de la piezas claves es la computación distribuida en los clústeres de Apple que, mira que casualidad, no usa los procesadores de Nvidia.

    La pieza de resistencia de Apple es lo que se conoce como Secure Multi-Party Computation (MPC / SMPC) y un algoritmo FHE (Fully Homomorphic Encryption) una evolución de su protocolo Private Set Intersection (PSI).

    Privacy by Design: Secure Multi-Part Computation: Additive Sharing of Secrets

    Differential Secrecy for Distributed Data and Applications to Robust Differentially Secure Vector Summation – Apple 2022

    En pocas palabras, una de las soluciones más avanzadas para efectuar procesamiento de datos mediante Distributed Deep Learning, y que la sitúan por delante de la competencia en cuanto a la privacidad en el uso de sistemas entrenados con datos del usuario.

    Apple can leapfrog OpenAI, Microsoft, and Google at WWDC 2024

    Apple procesa todos los datos del usuario, desde fotos hasta emails, mensajes de texto, o documentos y los traslada fuera del dispositivo un sistema distribuido – que no es Nvidia – para procesarlos.

    Este sistema ya ha sido homologado por la Unión Europea para cumplir con la normativa vigente de protección de datos. Y mira tú por donde, la persona que lo presento en Bruselas fue… Ashton Kutcher.

    On Ashton Kutcher and Secure Multi-Party Computation

    No rivaliza con OpenAI, les ha pasado por delante.

    «Dude, Where’s My ChatGPT? and Nvidia?»

  • #018
    Chipiron - 12 junio 2024 - 15:04

    Soy el primero que considera que Apple tiene dificultades en el tema de los LLM. Parte es su propio descuido y parte el intento de mantener la privacidad.

    De todas maneras no considero que los modelos LLM actuales sean todavía totalmente útiles para todo. Lo que ha hecho Apple (para minimizar daños) es integrar en el core de su sistema operativo aquellas funciones que si pueden tener una utilidad inmediata, a dia de hoy.

    Que pasará en el futuro? Pues no sé, aunque si es cierto que Apple lo tiene más dificil que, por ejemplo, facebook o google. La privacidad de datos tiene un precio…

  • #019
    Pedro Ferrer - 12 junio 2024 - 15:28

    LUA, entiendo tu punto, pero no estoy de acuerdo en que Apple no innove al permitir el uso de ChatGPT. Apple siempre se ha distinguido por su enfoque en la experiencia del usuario, y simplificar el acceso a herramientas potentes como ChatGPT es, en sí mismo, un valor añadido. No se trata solo de ahorrar clics, sino de integrar funciones avanzadas en su ecosistema, manteniendo la privacidad y mejorando la usabilidad. Innovar no siempre es reinventar la rueda, a veces es hacerla más accesible.

    • Chipiron - 12 junio 2024 - 17:25

      Yo no lo habría argumentado mejor. Cuando salga iOS 18 veremos si lo ha conseguido…

    • Lua - 12 junio 2024 - 18:47

      Hola Pedro, con todo el respeto… Ya he dicho antes que, si Jobs estuviera vivo, se hubiera liado a palos con todos los de dentro. Yo no tengo nada en contra de Apple, de hecho, me la sopla hablando claro, que yo no como de ello, pero si contra los fanáticos.

      Mira, hace unos 100 (o 200) artículos, dije que me sorprendía que Apple no se estuviera subiendo al carro de la IA, y por las mismas, auguré que “alguna carta tenia escondida en la manga y que nos daría una sorpresa”. Me equivoque. Y creo que muchos también.

      No. No vi la presentación. Solo lo que he leído y lo que nos cuenta eDans. No era esto lo que yo hubiera esperado. Para no ser un fan de la marca, reconozco mi decepción. Quizás esto es solo un impasse provisional y en breve si nos de una noticia al respecto. Pero quizás le pase como con las Vision. No se trataba de un acuerdo con OpenAI (ni con nadie) sino de sus propios recursos.

      Cuando se alardea de tener una arquitectura de chips tan potente, que menos que no tengas ninguna dependencia con el exterior y que como Juan Palomo, te lo guises y te lo comas en tus propios servidores. Pero no solo una parte, como parece ser, sino todo. Tiempo han tenido, que hasta empresitas nacidas como startup ahora están cotizando, véase Mistral.

      Otrosi: No voy a entrar en el tema de la privacidad, porque aun hay niños de 40/50 años, que siguen creyendo que el Quijote fue un personaje real, aunque la IA les diga que no.

  • #022
    Benji - 12 junio 2024 - 16:05

    Las IA actuales son elefantes de patas enormes. Lentos y grandes. En el futuro auguro unas IA tipo hormiga o conejo.

    El problema es que ChatGPT intenta ser todo: Tiene idiomas, tiene estructuras de lenguage, tiene textos de canciones, tiene fotos, tiene programación… tiene demasiado.

    En el futuro habrá IAs adaptadas a su contexto. Unas para crear memes, otra para idiomas, otra para fotos/videos y así. Más especializada y más compacta.

    • Chipiron - 12 junio 2024 - 17:23

      Es cierto lo que dices, y parece ser la visión de Apple, que va «incrustando» en el core de su SO las aplicaciones prácticas y «casi infalibles» de ciertos aspectos de la IA (que a veces puede confundirse con algoritmos ML).

      Claramente, el objetivo de Apple, o su deseo, es que todo lo que hace chatgpt Y ES UTIL, se pueda hacer «on-device».

      Saludos

  • #024
    Xaquín - 12 junio 2024 - 16:24

    Solo un matiz, la inteligencia puede ser natural (bàsicamente humana) o artificial. Lo segundo porque lo dicen slgunos sabios màs o menos siliconados.

    Pero la inteligencia o es pragmática o no es inteligencia… llámale intuición, sentido no común, atisbo alienígena o lo que se prefiera. Porque el riesgo puede ir asociado sl heroísmo, pero el heroísmo , ademàs de mitológico, nunca será un acto de inteligencia. Por lo menos de inteligencia racional, la emocional es otra cosa diferente.

  • #025
    Alqvimista - 12 junio 2024 - 17:49

    Es lo lógico y poco sorprendente que los no usuarios de Apple, y que seguramente ni han visto la presentación, no entiendan cómo funciona Apple Intelligence; sí me extraña que el sr. Dans, que seguro que sí la ha visto y además es usuario de Apple, la simplifique tanto.
    Creo que sólo MENESTRO lo ha hecho.

    Pero si quieren hablar con propiedad pueden empezar, además de yendo a la fuente*, por escuchar esto:
    https://pca.st/episode/2d4537f7-76fd-48d2-8064-4bd686c2e576

    La parte ChatGPT es sólo una fracción de Apple Intelligence.
    Y algo fundamental: todas las funciones AI están incluidas en el SDK de forma que están disponibles para todos los desarrolladores.
    Y que esto sólo es la primera implementación.

    ¿Sin NVIDIA no hay AI? :-D
    No hace tanto que se decía que era imposible hacer un ordenador competitivo sin Intel/AMD, o que era imposible hacerlo basado en ARM y ya veis, hasta Microsoft se ha apuntado ya.

    * https://www.apple.com/apple-intelligence/
    https://developer.apple.com/apple-intelligence/

  • #026
    Luis - 12 junio 2024 - 18:57

    Como siempre, Apple los reyes del MARKETING, en este caso para ocultar su retraso tecnologico.

    • Alqvimista - 12 junio 2024 - 20:25

      Apple nunca llega tarde. Ni pronto. Llega exactamente cuando se lo propone ;-)

  • #028
    Carlos - 12 junio 2024 - 22:12

    No se hasta que punto la política de privacidad de Apple les vaya a ser un problema, la verdad. Personalmente, me siento más cómodo compartiendo mi información con ellos que con otras compañías. Estoy muy concienciado con la privacidad, pero no tengo ningún problema en contarle mis cosas personales a, por ejemplo, mi médico. Otra cosa muy distinta es que mi médico decida coger mi información personal y hacer uso de ella para terceros y sin mi consentimiento.
    Tienen también como ventaja su ecosistema. De momento esto es lo que ofrecen, pero en un tiempo, herramientas como Final Cut y Logic Pro tendrán su dosis de IA, con todo lo que ello significa. Que una IA te haga una imagen o un video de cero es una pasada, pero que una IA te asista en lo que TU realmente quieres hacer, desde el principio, lo veo más acorde con un público que se sentirá potenciado, y no sustituido…

    • Alqvimista - 12 junio 2024 - 22:21

      ¿En el tiempo? ¡Ya es ese tiempo!
      Un amigo ahora mismo me estaba enseñando esto de Logic

      https://www.youtube.com/watch?v=PCYTqDSUbvU&t=342s

  • #030
    DEFCON 2 - 12 junio 2024 - 22:17

    Hay un canal de referencia para ver las «Keynotes de IA» que es DOT CSV… y ha filtrado oportunamente el marketing para fanáticos.

    Cuando solo se presentan cuatro «novedades» que google y openAI, es lo que pasa, que eso no es innovar y Carlos lo ha leido extremadamente bien…

    «Cuando la gente no lee, entonces no hace falta quemar libros»
    Ray Bradbury, autor de Fahrenheit 451

    • Alqvimista - 13 junio 2024 - 09:31

      No lo conocía, parece interesante.
      Esperaré a que haga programa para Apple Intelligence (aunque ahora sólo lo puede en modo beta).

  • #032
    DEFCON 2 - 13 junio 2024 - 10:19

    Que no conocias

    * El libro?
    * La película?
    * El canal de Carlos?

    De Apple solo hay un publirreportaje (ellos le llaman evento) con sus novedades. En realidad para vosotros sus clientes deberían haber dicho «ahora os traemos esto», han introducido features con algo de IA pero que son pequeños add-ons a sus apps, muy bonitas eso si, que son una nueva estética a lo que ya hacían, y que solamente funcionarán con los terminales últimos, recordemos MAC PRO más de 2000€, y en IOS siempre te podras bajar la app enchanted, para probar un modelo LLM de IA pequeño (7B)

    En los PRO puedes probar directamente ollama, requiere macOS 11 Big Sur o posterior, pero claro para eso puedes preferir un Ubuntu a 0€ sin pasar por caja, tu eliges que tipo de usuario eres.

    Y para usar ChatGPT en Safari, te pasa lo mismo, lo puedes obtener con el modelo gratuito a coste 0 en Ubuntu, o puedes usar tu MAC que hace lo mismo. Y una vez conectado, el funcionamiento es idéntico, solo te evitas cuatro clicks al principio… decir que eso es usabilidad es una lerdez… cualquier desarrollador junior, te hace un interfaz con estética de chat, y se conecta a ChatGPT

    Por otro lado, se ha hablado poco de la presentación de Microsoft con el omnipresente Copilot en todo, las NPUs y si de verdad tener un Copilot+PC va a servir para algo

    Por ejemplo hoy,en internet puedes encontrar como integrar un modelo 7B en Visual Studio Code en modo local, por ejemplo con el modelo chino Qwen por decir el que está más cercano en prestaciones a ChatGPT 4 a 0€. Totalmente privado (local)

    Pero si lo que nos fijamos es una presentación de cuatro aplicaciones renovadas con lo que ya los demás tenemos hace más de 1 año, y lo ignoramos, entonces el evento apple fue maravilloso…. Eso hace flaco favor a ser un comentarista agnóstico y creible.

    Y una reflexión que me hago en 1ª persona:

    Poner excusas para justificar la propia ignorancia, nunca ha sido una buena actitud ante la vida. Si no sabes de una cosa, seguramente tu opinión será como el agua de lavar calcetines, nunca será un café expresso

    • Alqvimista - 13 junio 2024 - 12:08

      – No conocía el canal de Carlos.

      – Soy consciente de que hay muchos gilipollas usuarios de una marca por razones estéticas, pero te puedo asegurar que somos muchos los que usamos Apple porque nos da la gana -y somos los más críticos con la marca- exactamente la misma razón por la que tú utilizas lo que sea que usas, Linux o Windows. Yo no te critico ni te insulto por ello. A ver si vais aprendiendo a tener un poco de respeto y educación.

      – Que no, que no toda la AI se reduce a ChatGPT, sea la de OpenAI, la de Google o esa china. Y a mi personalmente es lo que menos me interesa.

      – Y sí, ahí sí le has dado. Copilot. Esa es la verdadera comparación, Apple Intelligence vs Copilot, ósea, la integración de AI en los procesos del Sistema Operativo y si el usuario obtendrá beneficio real de ello.

      – En iPhone sí hay un corte inexplicable: sólo compatible con iPhone 15Pro. ¿Por ahora? ¿Para siempre? Sólo ellos lo saben…
      En Mac es compatible con Procesadores Apple SoC -no con Intel-, desde mi Mac Mini M1 que compré de segunda mano por 300€. No necesitas un Mac Pro de decenas de miles de euros.
      Un Mac Mini nuevo cuesta a partir de 700€, si eso te parece que está lejos del poder adquisitivo de la gente común…

      • DEFCON 2 - 13 junio 2024 - 12:41

        Allá tú y tus compras… Aqui no vengo a discutir, nio ver quien la tiene más corta, sino a aportar información…

        Por ejemplo para disfrutar del GPT 4 en Android, lo puedes tener ya, de una forma muy sencilla, te bajas la app del teclado de Microsoft, y cada vez que quieras acceder a él entras en cualquier sitio que necesites un teclado (navegador, whatsapp) y sale a la izquierda el icono de Copilot integrado, y entra integrado en tu teléfono o tableta por 0€, sin más. Sin tener que tener «la inteligencia manzana» en octubre como dicen los chicos del mejor podcast de IA en español «monos estocásticos», y estos si tienen el episodio de apple calentito

        https://www.youtube.com/watch?v=3p3mfc1jnq0

        • Lua - 13 junio 2024 - 13:53

          Bueno… yo ya he hecho «los deberes», asi que me he tragado la presentacion y el podcast. Y mi opinion no cambia.

          En tanto a la primera, lo unico que me ha «sorprendido», ha sido la calculadora del ipad y el manejo de los textos escritos con tu letra. No venderia mi vida por ello.

          A raiz de los comentarios, me pregunto si todos hemos visto la misma presentacion…

          En tanto a la segunda, me recuerda a esos «blogueros», que todo cuanto tienen que decir, se podria resumir en un parrafo de 5 lineas, pero usan sinonimos, perifrasis, circunloquios y ambages varios para rellenar el articulo (y encima sin tener putaidea de algunas cosas) con palabrerias varias. y rellenar 45minutos.

          En fin. Que me mantengo en mi mantra de que cada cual se gaste los cuartos en lo que le apetezca, que para eso son suyos…

          • Lua - 13 junio 2024 - 14:12

            Ooops… me referia al podcast que puso Alqvimista… :P

          • DEFCON 2 - 13 junio 2024 - 14:22

            La vi al día siguiente, y me pareció un tostón similar a la de google… el colmo: explicando como cambiar iconos (TLC)

            Los chicos de «mono estocásticos» tienen una versión más digerible… no coincido al 100% con ellos, pero al menos es una versión de la historia menos para monoscompradores, y más para monosabios, ¡¡Olé!!

            El chatRTX de NVIDIA en local para tus documentos parece el notición del episodio, lástima que tienes que tener una super GPU. Pero al final la gente se queda con los colorines de la manzana

          • Lua - 13 junio 2024 - 14:42

            Estoy con los monos en segundo plano… XDDD

            No sabia quien eran… muy buenos… :P

  • #039
    Roberto - 13 junio 2024 - 10:28

    Hola,

    buen artículo profesor Dans. En mi opinión un tanto decepcionante la presentación de Apple Inteligence. Eso sí, seguro que habrán estudiado con mucho detalle, muchas personas inteligentes, cómo hacerlo en Apple y probablemente esta era la mejor solución.

    Lo que esto nos dice es lo muy por delante que va OpenIA y Nvidia al resto del mercado. No acabo de entender cómo hay compañías muchísimo más pequeñas que Apple, como Anthropic, y hayan sido capaces de crear algoritmos generativos buenos. Quizás no a la altura de GPT4o. Supongo que es la dicotonomía entre la gestión de datos y privacidad. No he mirado cómo lo hacen Perplexity o Anthropic…

  • #040
    Enrique - 13 junio 2024 - 13:02

    Esto va a acabar como las plataformas de streaming, cada IA integrada con su pequeño coto y si quieres salir de ahí te suscribes a otra.

    Y los usuarios «avanzados» acabaran también como el streaming, ejecutando un modelo gratuito en local y eliminando todas las suscripciones.

    • Lua - 13 junio 2024 - 13:19

      +1000

Dejar un Comentario

Los comentarios están cerrados