Eso, que según informa CNNMoney, parece ser que Gartner, ese viejo oráculo del sector tecnológico que vive en lo alto de una montaña con su bola de cristal (una bola de cristal muy pequeñita, por eso sólo es capaz de ver acrónimos en ella) ha dicho que Microsoft no será capaz de cumplir sus plazos y que, finalmente, la salida de Windows Vista se retrasará hasta Abril-Junio de 2007. La razón, por lo visto, es el cálculo llevado a cabo por Gartner de la complejidad de la tarea que la empresa tiene que llevar a cabo: la fase que va entre la segunda test release y el comienzo de la producción llevó cinco meses en Windows XP, pero dada la magnitud del cambio tecnológico que supone Vista, estaría mucho más cerca del caso de Windows 2000, en el que dicha fase consumió un total de dieciseis meses. Y una vez iniciada la fase de producción, aún hay que añadir las seis a ocho semanas que lleva a los fabricantes de equipos instalar el nuevo sistema operativo en las máquinas que ponen a la venta.
Microsoft ha negado la mayor: afirma que las estimaciones de Gartner son erróneas y que la compañía sigue dispuesta a cumplir los plazos. Y claro, aunque las previsiones de Gartner son para mí tan fiables como las de futurólogos y videntes, el caso es que las acciones de la compañía han bajado ya un 1% en el afternoon trading. ¿Escribirá Steve Ballmer otro e-mail a toda la compañía en plan «que no cunda el pánico» como el que envió el pasado viernes tras bajar las acciones de $27 a $24?
Enrique
Por favor te pido que un post tuyo hables de lo que opinas de Gartner. Yo sigo mucho sus articulos y los utilizo incluso muchas veces en mis clases. Me gustaría saber si realmente son buenos y si son independientes. Personalmente creo que sus predicciones en las cuales como bien sabes le añaden la probabilidad de que ocurra, me parece un poco de morro porque siempre se cubren las espaldas. Pero por otro lado he leido muchisimos articulos muy buenos de ellos y me han gustado mucho
un abrazo y gracias
Jose Luís, lo que opino de Gartner y similares lo tienes en un artículo de hace mucho tiempo, escrito a medias con David Allen y que llegó a pasar la primera revisión para la sección Issues and Opinions de Management Information Systems Quarterly (MISQ), el mejor journal de mi área: «Methodology and rigor: how ‘false prophets’ pushed firms to the dot.com cliff«.
¿Conoce alguien alguna empresa de software capaz de lanzar sus productos en más de 20 idiomas (y productos que contienen gran cantidad de texto a traducir), y lanzar todos ellos el día del lanzamiento, junto con la bendita versión en inglés?
Yo solo se lo he visto hacer a una: Microsoft.
No soy pro-Microsoft ni nada de eso, pero al césar lo que es del césar, que algunos lo pintan como si lanzar un sistema operativo fuese cosa de niños, joder.
Yo aún guardo como oro en paño un informe de Gartner (los recibo mensualmente, aparte de ir a varios eventos) donde, afirmaban con rotundidad que el navegador que iba a arrasar a MS era… Netscape 4. 4!!! que fue un producto malísimo y dio alas al IE4, muy superior en aquellas fechas… Sobre todo recuerdo que la mayor paliza era en los entornos empresariales (donde su declive fue tremendo).
Gartner siempre pone su probabilidad en sus afirmaciones e informes, con lo que siempre están a salvo…
Me ha hecho mucha gracia lo de los acrónimos y la bola pequeñita. Pienso extender la frase!
Lo cierto es que tienen mucho predicamento entre jerarquías altas, pero siempre he sospechado que en muchos casos es por miedo a confiar en tu propia gente… Gartner son los líderes de la obviedad hecha revelación.
No estoy de acuerdo… los informes de compañías como Gartner o Forrester influyen de forma clave entre un 40% y un 60% de las decisiones tecnológicas de un CIO o un departamento de IT en una multinacional. Lo de mojarse y salir a la prensa con estas cosas es parte del juego de la visibilidad. Decir que una investigación de mercado académica es mejor que una investigación de mercado de Forrester o Gartner u otra es engañoso, sirven objetivos distintos, la investigación academica no es operativa ni utilizable desde un punto de vista de negocio. Sirve para teorizar, no para tomar decisiones, que es lo que necesita un CEO o un CIO.
* «¿Conoce alguien alguna empresa de software capaz de lanzar sus productos en más de 20 idiomas (y productos que contienen gran cantidad de texto a traducir), y lanzar todos ellos el día del lanzamiento, junto con la bendita versión en inglés?»
No, dentro del negocio de SOs propietarios no. Claro que el hecho de que sea un monopolio puede afectar, ya que no tenemos con quién comparar. Podríamos compararlo con MacOS, pero no me parece justo pedir a Apple que saque una versión en, digamos, euskera, cuando hay 7 mac-eros euskaldunes, mientras que el tamaño de la base de usuarios vascoparlantes de Windows sí podría justificarla.
Ahora, dentro del Software Libre la cosa de los release-es también está chunga. Tomemos Debian, el epítome de la demora en lanzar versiones nuevas dentro de Linux. La comunidad de usuarios estaba que trinaba, porque tardó un montón en sacar la última versión estable (Debian 3.1 Sarge).
Pero bueno, es que un release de Debian comprende 14 CDs, con más de 15000 paquetes de software, soporta 26 idiomas, y corre sobre 10 arquitecturas (aparte de x86, también Motorola 68k, Sun SPARC, IBM PowerPC y S/390, Alpha, IA64, ARM, MIPS y HP PA-RISC). Comparemos eso con la miseria que ofrece Microsoft, y veremos que, efectivamente, lanzar un verdadero OS sí que cuesta, pero lo de MS debería ir más rapidito.
Ah, bueno, mencionar un pequeño detalle: ¿cuáles son las fechas de lanzamiento de Debian que tanto han hecho rabiar a sus sufridos usuarios?. Pues las tres últimas fueron:
Debian 2.2 Potato: 14/08/2000 (se siguieron sacando versiones menores hasta 13/07/2002, y security patches hasta 30/06/2003).
Debian 3.0 Woody: 19/07/2002 (todavía siguen produciendo security patches)
Debian 3.1 Sarge: 06/06/2005
¿Se parece esto en algo al ritmo de lanzamiento, duración de soporte y cantidad (y calidad) de producto lanzado de MS? Yo creo que no.
El ritmo al que MS (o cualquier empresa de software) lance versiones nuevas de su producto depende de intereses económicos y de mercado, más que técnicos o de otro tipo. Dado que no tienen competencia, se pueden dormir en los laureles cuanto quieran… y lo hacen. Dado que cuando saquen una nueva versión todo el mundo la va a comprar, pueden ofrecer un producto de calidad limitada y con innovaciones mínimas… y lo hacen. Su única preocupación es espaciar las versiones suficiente para que los usuarios puedan permitirse el «upgrade», pero lo menos posible para sacar el mayor provecho económico posible, mientras envuelven al usuario en una carrera de la reina roja, con un SO cada vez más ineficiente, tapado por procesadores cada vez más veloces (que sus SOs obligan a comprar).
John, una cosa es que la investigación académica sea lenta (que lo sería menos si las empresas la financiasen como financian las fumadas de porro de esos «analistas») y otra que esté justificado pagar lo que se paga por un informe escrito en función de una serie de estrevistas que ignoran completamente el sesgo muestral, que se basan de manera fortísima en percepciones personales de los «investigadores», que carecen de métodos y que además no los revelan por que son «parte de su know-how», que jamás aguantarían el paso por las manos de un reviewer medianamente serio y que no tienen más valor que la opinión de un amiguete informado. Porque eso es lo que son, amiguetes informados. Pero caros, carísimos.
¿Te has planteado alguna vez qué tienen esos analistas para justificar la bondad de sus predicciones? ¿Experiencia? Como si la historia tecnológica se dedicase a repetirse. ¿Métodos? Ninguno que soporte una revisión seria. ¿Historial de aciertos pasados? No hace falta que te diga nada de hasta que punto han estado desencaminados en el pasado, ¿no? Eso sí, arreglárselas para vender una reputación en base a unos resultados previos de fiabilidad espantosos, basándose en el pretendido prestigio de unos «analistas» que pasan a papel nada más que sus opiniones apoyadas por una investigación en absoluto fiable es un modelo de negocio decididamente admirable.
«The market for something to believe in is infinite»
(Hugh Macleod, Gapingvoid)
Enrique, sigo sin estar de acuerdo… Utilizo para mi trabajo Forrester y conozco muy de cerca sus metodologías, y no estamos hablando de «amiguetes», estamos hablando de muestras perfectamente filtradas y segmentadas por múltiples variables como cargo (CIO, Dtor. Sistemas…), número de usuarios de negocio, presupuesto ITC, sector de actividad, geografía etc. El IT research no se basa en un muestreo aleatorio simple, así sí que distorsionas los datos, se basa en conocer las estrategias y decisiones de una muestra relevante aunque aleatoria (lo que elimina el sesgo muestral) desde el punto de vista de la complejidad tecnológica interna de cada una de las empresas (directivos) encuestados. Además, siempre se especifica el error muestral en su metodología. ¿Que las empresas de IT Research son caras? Sí. ¿Que sus datos son erróneos? No más de lo que especifica su error muestral (si no lo especifican es otra historia). Reitero, un CIO necesita respuestas rápidas y lo más sólidas posibles para tomar decisiones. Eso no lo ofrece la investigación académica.
Hum…creo que este debate va a dar lugar a otro post de Enrique….estaré atento.. ;-)
Un saludo
A windows le han dado con todo.
El principal problema que ha ocasionado estos retrasos en vista el la gran compatibilidad que nos hemos acostumbrado a exigirle con software y hardware, si las tarjetas más nuevas que hemos comprado no fueran a durar más de un año, ni a golpes migrariamos, lo mismo con las aplicaciones.
Recuerdo que fu un drama cuando autocad 2004 no era más compatible con windows 98 y me, muchos departamentos jamas pensaron en actualizar, se quedaron en su version 2002, agora reviso que wn xp es xompatible con 2002,2004,2005,2006y 2007 8más las que se acumulen) y se esperara lo mismo de vista.
Esa compatibilidad tan anhelada es lo que impide que windows se rescriba desde 0.
lo he dicho más de una vez, su principal fortaleza es al mismo tiempo su principla debilidad.
Poder adquirir hardware de muchos fabricantes y tener la (casi) certeza de que sera compatible, así sea una mobo hecha en asía con un procesador diseñado en USA,con memorias argentinas,fuentes compradas en canda, teclados refabricados en México, todo funciona (lo mejor que puede) y así tenemos LIBERTAD (ese mismo hardware nos funciona en Linux, a pesar de que haya detractores que dicen que los driver cerrados como los de las tarjetas de video no tiene lugar en linux)
¿Puede decir lo mismo Mac de su OS X?
Que lo liberen para PC y veamos si pueden presumir como lo han hecho hasta ahora?
Es lo mismo cuando un niño me dice que una xbox es mejor o más potente que una PC
¿Si no fuera una arquitectura única habría esa impresión?
Además una consola no me ayuda a conseguir más juegos, capitulos de otras series, a llenar mi CV, a enviarlo a fuentes que busque ahí mismo, no me permite quemar producciones propias o ajenas, la mac si, pero de nuevo, existe menos hardare y me quieren meter sus widgets que para mi no representan una necesidad
Ni recordemos esa bizantina discusión de el mouse de un solo boton
John, estoy de acuerdo con Enrique: «Amiguetes informados» es evidentemente una simplificación, pero en 2 palabras es imposible hacer una definición mejor. Todavía deberían pedir disculpas por cuantos CIO/CTOs enviaron a la burbuja de internet, por ejemplo, y tampoco las pedirán por la gente que están enviando a los puntos más descabellados del modelo SOA que propugnan cual piedra filosofal (por cierto, de paso aprovechan para comentarte que ellos tienen una arquitectura de referencia). Estoy de acuerdo en que puede ser una opinión digna de leer, seguro que son gente que se mueve e informa, y ve lo que sale en el mundo, pero me parece un tremendo error cogerla como opinión principal, o indiscutible. Y he visto mucho dinero tirado a recomendaciones de estos chicos (tirado en el sentido que ya no existe en lo que se gastó, no que sea mejor o peor lo que digan)
JIFF, no soy el mayor defensor de Apple del mundo, más bien es mi segunda bestia negra, después de Microsoft. Pero precisamente porque desprecio más a MS, he de repetir que ciertas comparaciones entre Mac y Windows están viciadas de partida.
No es justo esperar igual compatibilidad con dispositivos hardware, p.e., como tú mencionas, porque aunque ahora Mac corra sobre Intel, Windows sigue teniendo un monopolio de facto. Este monopolio hace que MS pueda extorsionar (otra manera de decir «usar injustamente su posición ventajosa en el mercado») a los fabricantes de hardware para a) que ellos mismos produzcan los drivers (para Windows) de sus dispositivos, o cuando menos den a MS sus especificaciones, y b) que oculten lo más posible estas especificaciones de la competencia, para que esta no pueda producir drivers.
A causa de a), deja de ser sorprendente que Windows sea compatible con tantas cosas ¿no? ¡Lo sorprendente es que a veces no lo sea! ¡¡Pero si todos los «third parties» se mueven a su son!!
Y a causa de b), también deja de ser sorprendente que la competencia (Linux, Mac, BSD…) tenga problemas para soportar ese hard y soft de terceras empresas, ¿no?. Lo que es sorprendente es el alucinante soporte que ahora mismo gozamos en Linux… soporte que no va a hacer más que mejorar mientras Linux vaya aumentando base de usuarios (y las terceras empresas vean que tiene futuro hacer hard y soft compatible con él, reduciendo el esfuerzo inmenso que los desarrolladores de Soft Libre hacen ahora mismo).