Desde su origen, Google se distinguió por ser un motor de búsqueda diferente a los demás: como es bien sabido, la compañía tiene su origen en un desarrollo académico, en un algoritmo que asigna relevancia mediante un elemento social como el contar el número de referencias a una página determinada: las páginas de resultados se ordenan en función de los enlaces externos con un término específico que reciben cada uno de sus elementos.
Este concepto, sobre el que Google ha elaborado toda una compleja teoría con innumerables variables que modifica de manera continua hasta quinientas o seiscientas veces al año, funcionó de manera espectacular a la hora de diferenciar a Google del resto de motores de búsqueda: la sensación que los usuarios tenían era la de que el buscador reflejaba realmente sus intereses en el proceso de búsqueda, una sensación muy diferente a la que experimentaban cuando utilizaban las herramientas de sus competidores.
Sin embargo, la idea de que sean variables fundamentalmente sociales las que determinen la relevancia tiene un problema fundamental: que los procesos sociales no solo miden la relevancia, sino también elementos como el sensacionalismo. Algo que recibe una atención diferencialmente elevada con respecto a un término determinado puede obtener esa condición por ser, en efecto, relevante, o por recurrir a factores como el amarillismo. A medida que los creadores de contenidos aprenden a retorcer el algoritmo de Google y a recrear procesos sociales, la web se convierte en un océano de clickbaiting, titulares intrigantes, listicles y recursos sensacionalistas de todo tipo diseñados para capturar los likes, los retweets y los enlaces que se establecen como auténtica moneda de la atención. Al tiempo, caemos en la cuenta de otra gran verdad: que determinados sitios que dicen auténticas barbaridades se convierten en relevantes por la cantidad de enlaces que reciben, importando poco que la gran mayoría de esos enlaces sean puramente peyorativos o destinados a señalar lo erróneos que son.
Los esfuerzos de Google para evitar esa progresiva contaminación de su algoritmo parecen estar desembocando en un intento de capturar ya no solo la relevancia establecida en torno a parámetros sociales, sino también alrededor de la idea de calidad de la información. Así, desarrollos como el Knowledge-Based Trust, o KBT, establecidos y probados en estudios académicos, apuntan a evaluar la fiabilidad de las páginas web en función de los datos que contienen dentro del contexto de lo que se define como su temática principal, incorporando a las tradicionales métricas exógenas (factores externos a la página web, como los sociales) un componente endógeno, propio de la página, evaluado de una forma objetiva. Algunos recursos interesantes de cara a entender el mecanismo son, por ejemplo, esta entrada en SEO Skeptic o esta otra en el Google+ de Aaron Bradley, que es quien más se ha destacado por el momento escribiendo sobre el tema.
La idea de cualificar la relevancia de una página en función de la calidad de la información contenida en ella parece muy interesante y potencialmente muy provechosa. Las fuentes sensacionalistas, las que se basan en información sesgada o las que deforman la realidad en función de sus intereses caerían, mientras aquellas que se esforzasen por ofrecer información verídica o contrastada ascenderían en las búsquedas. Obviamente, la importancia de la tarea requeriría modelos probabilísticos muy sofisticados capaces de estimar la corrección o incorrección de la información extraída de una página y considerada dentro de su temática principal, pero no parece, en función del progreso de tecnologías como el machine learning, algo técnicamente imposible. Por supuesto, existen campos semánticos en los que la verdad es cuestión de interpretación, pero para muchos otros, contrastar información contra un repositorio de «verdades universalmente aceptadas» en un tema determinado podría ayudar mucho a la hora de otorgarles una consideración de fiabilidad.
Sin duda, un avance así cambiaría el mundo tal y como lo conocemos. La trascendencia del desarrollo sería enorme, y afectaría a cómo nos informamos, a qué incentivos existen para elaborar información de una u otra manera… bien interpretado, podría suponer un brutal avance para la humanidad en su conjunto. Imaginemos un mundo en el que aquellos que mienten o difunden información falsa viesen su calificación disminuida, como quien se examina de manera constante ante un tribunal. Pensemos en el enorme reto que supondría para todos aquellos que se dedicasen a crear información, desde medios de comunicación hasta personas individuales, e intentemos imaginar el efecto que algo así podría tener en cuestiones como la relevancia o la marca personal. Sencillamente brutal.
¿Dónde está el problema? A mi entender, parece bastante claro: quién vigila al vigilante. Un sistema capaz de algo así nunca sería fiable, por principio, si su control estuviese en manos de una única compañía, fuese la que fuese. La potencia del sistema es tal que precisaría estar bajo el cuidadoso control de algún tipo de organismo cuya neutralidad se pudiese garantizar: no parece demasiado adecuado que la capacidad de evaluar qué es verdad y qué no lo es sea algo que esté bajo el control de una empresa determinada, y sujeto a sus posibles sesgos o intereses. Si hablamos además de que ese mecanismo lo desarrollase precisamente Google, de la que últimamente hemos sabido que no tuvo ningún problema en perjudicar artificialmente la posición de las páginas de sus competidores en sus resultados o en manipular esos mismos resultados para situar sus servicios en posiciones más visibles, las alarmas se encienden de manera todavía más evidente. Parece claro que acciones de Google como el extraer información de competidores (scraping) utilizando su privilegiada posición de motor de búsqueda predominante demuestran un tratamiento de las cuestiones éticas que alejan a la compañía de tener una posición de fiabilidad en ese sentido: pocos querrían poner «el oráculo de la verdad», en el caso de que efectivamente fuese desarrollado, en manos de alguien que se ha demostrado que incurre en ese tipo de prácticas.
Sin embargo estos son los hechos: Google parece contar con el talento adecuado para el desarrollo de la tecnología citada, y también con los medios suficientes como para ponerla en funcionamiento y dotarla de un desarrollo comercial. Lo que nos lleva a plantearnos, de nuevo, no solo la cuestión ética, sino también la del monopolio. ¿Qué ocurriría si una empresa llegase a desarrollar y a poseer un sistema de calificación universal de la verdad, capaz de encontrar entre millones y millones de resultados aquellos que son relevantes y ciertos? ¿Qué controles habría que desarrollar ante un sistema así?
This article is also available in English in my Medium page, “Does Google now have the monopoly on truth?«
¿Alguien dijo Ministerio de la verdad?
orwelliano
¡Din!
Psrece una labor titánica, sobre todo teniendo en cuenta que todavía ni siquiera se han resuelto todavía los problemas que han ido surgiendo en sistemas con un alto potencial de solvencia como los wikis y la revisión por pares.
En el mejor de los casos la aportación de empresas como esta podría ser de ayuda para restablecer la confianza en muchísimos campos.
Pintas un escenario demasiado catastrofista en mi opinión.
Durante años, la religión ha tenido el monopolio de la verdad (y aún sigue teniéndolo en ciertas partes del mundo), y esto parece haber sido perjudicial -pero no catastrófico- para la humanidad.
Si Google obtiene ese rol ahora, al menos seremos libres de cambiar de una verdad a otra tan solo entrando en un buscador alternativo.
No creo que esto haya de ser regulado, ni que regularlo sirviera de nada: en caso de que se hiciese, ¿quién iba a regular a los reguladores?
La verdad me resulta difícil prever la repercusión de esta tecnología. De momento solo noto la caída en la calidad de las búsquedas, e intento concienciar a conocidos sugiriendo que busquen cosas en las que sean expertos y así interpreten con cuidado. En cualquier caso, no nos queda otra que confiar en la búsqueda de competencia y que la capacidad crítica de las personas siga mejorando.
Además, actualmente ya existen oligopólicos de la verdad para la gente común, los periódicos-televisión, y no hay que irse a artículos científicos o donde seamos unos expertos para ver que es normal ver errores de bulto. Mi abuela sin estudios ya veía muchos. Otra cosa es que la gente tenga interés en verlos:
http://www.microsiervos.com/archivo/ciencia/conocimientos-cientificos-poblacion-espanola.html
Ya estamos insertos en un modelo de pensamiento único condicionado por lo políticamente correcto. Quizás el mayor problema sea para esos grupos de poder que perderían la capacidad de influencia y control que hoy detentan. Para ellos quedaría el uso de los demás buscadores ;)
¿Que mejor sistema de vigilancia que los propios usuarios de Google?
Si Google ha conseguido ser el monopolio que es, es gracias a que a juicio de los usuarios de internet es el mejor producto al mejor precio. Cuando los usuarios encuentren que Google no les proporciona el servicio de busqueda adecuado, seran libres de acudir a otro buscador, como fueron libros al acudir a Google. Y Google perecera.
Si el buscador de Google no logra esquivar las practicas de los piratas amarillistas, expulsara a sus clientes mas refinados y su target comercial mermaria, algo que la tv ya descubrio hace mucho.
Google es de esas pocas empresas gigantes en el mundo cuyo futuro se juega en un campo de batalla no minado. Para sobrevivir solo tiene que seguir siendo el mejor en su campo. Les supongo todo el empeño del mundo, les va la vida en ello, y mas viendo como ultimamente andan un poco perdidos con gafas futuristas o coches de chiste.
Personalmente creo que las máximas autoridades en los diferentes campos de conocimiento son una élite reducida de personas que gozan de ese reconocimiento entre sus compañeros y son fáciles de señalar.
Por otro lado, el conjunto de personas que valora el rigor y la calidad de la información y el de las personas que no lo hacen son grupos suficientemente disjuntos como para permitir a un algoritmo tipo bayesiano valorar la seriedad de una página.
No digo que distinguir la calidad sea una cosa fácil para una máquina, pero tampoco me parece tan complicado como para que no se halla conseguido ya hacer buenas aproximaciones de tipo genérico.
Yo creo que el algoritmo basado en la popularidad, siendo malo, permitió a Google aumentar su propia popularidad a costa de incluir mucho premio a páginas basura que interesaban bastante. Esto aumenta la popularidad del propio Google.
Si lo pensamos bien las televisiones hacen lo mismo. Les interesa captar el máximo de atención, y no solo la atención de los entendidos. Se hacen muchos programas basura que atraen mucha atención y gracias a este enfoque, tanto Google como la televisión alcanzan mayores ingresos por publicidad que es lo que a la postre les interesa.
Existe una paradoja. La gente es capaz de financiar por micromecenazgo producciones de contenidos de calidad, pero no contenidos basura. Estós últimos si que se consumen, pero quizás se hace con la conciencia algo sucia porque casi nadie los patrocinaría. Ya lo hacen las empresas privadas.
No somos responsables a la hora de consumir y eso tiene un precio social indudable. Estamos fomentando la producción de contenido basura y la mayor visibilidad de la misma.
Enrique, aunque Google sea la compañía que mejor ha sabido situarse como proveedor de servicios de búsqueda y acceso de la información en la web, no es una de las más sofisticadas o intrusivas, sino al contrario, su éxito se ha basado desde el principio en una escrupulosa observación de una serie de normas elementales de respeto a la neutralidad de las búsquedas y la libertad del usuario, al margen de intereses de otras compañías.
Todas las iniciativas que han ido detrimento de ese «Fair Search» o neutralidad del servicio, no han sido adoptadas por los usuarios. Buenos ejemplos de ello son Google+, que no ha sabido hacerse un hueco, aunque fuese un buen impulso al SEO, su servicio de streaming de música, que no ha encontrado un lugar ni siquiera en los dispositivos Android, e infinidad de proyectos más; Google Lively, Jaiku, el Twitter de Google, La Wikipedia de Google Knol, Wave, Google Video, etc.
Hay una línea directa entre el éxito de sus servicios, como Gmail, que indexa nuestros mensajes por ejemplo, y la neutralidad de su uso.
Google no es un arbitro de la tecnología y está muy alejado de lo que fue IBM en su momento, Microsoft o incluso Apple, con contratos públicos incluidos. Lo que sí es determinante, es el lugar de liderazgo que ocupa en una tecnología clave para la sociedad; Internet. Esa es la razón de que todos lo cambios sociales y económicos que surgen entorno al desarrollo de las tecnologías socialmente significativas, que reflejan un impacto en la forma de comunicarse en ese nuevo entorno social, son objeto de crítica e intentos de influenciar su adopción por la sociedad.
No es diferente de la intervención sobre medios de comunicación; Internet al convertirse en un cauce de comunicación y libre expresión, se ha erigido en el poder fáctico de la sociedad.
Lo que es realmente disruptivo en Google es su filosofía social de acceso a la información por parte de cualquier persona.
Google, solo es un jugador visible en el ojo del huracán de todo ese cambio social.
Y asume, por decirlo así, el rol de «sospechoso habitual» de ese nuevo uso de la tecnología, siendo objeto de un criticismo superficial y sesgado en la mayoria de los casos, en un intento de sembrar incertidumbre y duda sobre ese nuevo cauce de información.
Hola Enrique, observo que Google ya funciona bajo los conceptos y miradas que expones hacia el futuro.
Google ya toma en cuenta múltiples «supuestos» para darme resultados en su «Search Engine» que ELLOS consideran relevantes para mi: vía mi geo-localizacion, mis compras, chrome analítica, historial de búsquedas, mi edad, sexo, uso de dispositivos, mi «household» members y sus intereses…etc… Ósea, «mi X-Google file».
Google ahora me presenta un mundo – SU mundo – «a la carta» y esto en si me parece un problema muy serio y creciente. Una persona que teclee «World Politics Today» en España recibe resultados diferentes si tecla desde Honduras… y se tecla la mismas»palabra claves».
Van pasando los años y la goma de la «careta» de Google (sus verdaderas intenciones) se esta viendo más y más. Sus planes a largo plazo – intuyo – pueden ser muy siniestros si no hay controles o verdadera neuralidad (cosa que dudo de nuevo con Google entrando con «Proyect Fi», por ejemplo).
Saludos, y otro «eye opening» post de nuevo.
El gran problema de Google es que solo medía popularidad y nos lo trataba de vender como calidad, cuando distan mucho de ser ambas cosas lo m0ismo. Cualquier intento de medir calidad sea bien venido.
El segundo problema es que la famosa divisa, «Don’t be evil», desapareció el mismo día en que salió a Bolsa, pues sus actuales accionistas tienen por divisa «More profit» y para conseguirlos harán cualquier cosa. Pero ese problema es depediente de que midan o no calidad, Si piensan obtener más beneficios prostituyendo los resultados del buscador, lo harán independientemente de que midan solo popularidad o que añadan medir calidad.
Hola Gorki, cuando salio google el resto de buscadores estaban mas interesados en la web que nos mostraban que en que fuera de calidad.
Yo no compre lo que vendian, sencillamente observe la utilidad de sus resultados y vi en ellos una «calidad» años luz de yahoo, que era mi principal alternativa.
A mi google nunca me vendio calidad, pero yo si recomende a Google hablando de la calidad de sus resultados.
Hoy en día he vuelto a 1997, a cuando buscaba lo mismo en varios y comparaba los resultados.
El día que Google deje de ser útil dejaré de usarlo.
PROFIT IS EVIL? A muchos «egoistas» se les juzga y condena por delincuentes.
Un saludo
La verdad probablemente no sea lo que genera más beneficios en los medios de información.
Seguramente el acierto comercial de Google sea que desde el principio jamás se obsesionó con la búsqueda verdad ni con hacer de este mundo un mundo mejor, aunque esa fuera la imagen que pareció ofrecer inicialmente.
Para ser justos, el mérito del crecimiento de la cantidad de basura en Internet le corresponde por un lado a Google y por otro a las debilidades humanas.
La gente también usa Internet para aprender, pero sobre todo, lo usa para relacionarse, para satisfacer curiosidades y para entretenerse, lo cual no es exactamente lo mismo.
Yo creo que no toda la información oculta a los buscadores es información reservada. Mucha de la información realmente valiosa que existe en Internet creo que simplemente no desea ser indexada porque solo quiere ser compartida por la gente que es capaz de apreciar su valor, y por ello entran a formar parte de la Internet profunda. Para muchas de ellas la alternativa sería ser casi invisible porque de todas formas los buscadores no las concederían un buen posicionamiento que ni siquiera desean.
Ese problema hace tiempo que se solucionó: Si está escrito en LaTeX, es de calidad ;)
El algoritmo clásico de Google encuentra lo que le interesa al conjunto de la gente, que no tiene por qué ser lo que me interesa a mí. Por tanto es mejorable, y Google lo tendrá que mejorar en ese sentido si no quiere que venga otro detrás y le coma la tostada.
Existe sin embargo un peligro en personalizar los resultados de las búsquedas, y es que podríamos acabar encerrados en una burbuja de prejuicios tan solo porque inicialmente tuvimos unas preferencias. También esto es mejorable, y Google también lo tendrá que mejorar.
Por lo demás, los que hemos vivido la Era Altavista sabemos que Google está a años-luz de lo que había antes.
Mayor problema le veo, para Google, en aquellos casos en los que accedemos a la información sin pasar por un buscador. La Wikipedia, Amazon, Whatsapp, Facebook, y Twitter están siendo todo un problema irresoluble para Google, lo mismo que innumerables apps para móvil que nos automatizan el acceso a determinadas informaciones (por ejemplo, el típico widget sobre el tiempo, o la app de los autobuses urbanos de mi ciudad).
Hola Enrique, felicidades por el diseño de la página, muy funcional. Lo único que no me termina de convencer es el tipo de letra. Respecto a google completamente a favor de lo que dices, la calidad de sus búsquedas ha bajado considerablemente. Sitios como Amazon copan sus primeras páginas sin ser en mis búsquedas relevante salvo cuando deseo comprar algo. Y sobre los sensacionalismos, qué deciros; antes encontraba lo que quería en la primera página, ahora esa primera página está copada de títulos ‘tocados’ por SEO, por memes y demás. No es justo para quienes hacen información verídica. El problema de google es que se ha dedicado a perseguir a quiénes infringían su algoritmo por no seguir sus parámetros. Es decir a imponer que la información se ponga como él quiere en lugar de buscar la más relevante. Un error que estamos percibiendo ahora porque el whiteSEO no es más que otra forma de ‘colársela ‘ a google. Yo no publico basándome en estrategias así porque si juegas en límites con google, el día que cambie su algoritmo, tu estrategia se irá con ese cambio. Finalmente os digo, ¿dónde se ve el valor real de google como marca? cuando buscamos algo en yahoo, si no ofrece lo deseado en la primera página (e incluso en los primeros 3 resultados) NOS VAMOS. La gente con google no encuentra lo que quiere y va a segunda, tercera y cuarta página, o hace una segunda búsqueda con otros términos ¿qué nos dice esto?, que las personas cuando no encontramos lo que queremos en google, castigamos nuestro error, no «el suyo». Ese es el poder de google. ¿Y su control? el peligro de Google es él mismo porque si controlas la verdad, ¿quién nos garantiza que esa es toda la verdad?. Un saludo.
La calidad ha muerto y todavía no lo hemos entendido…
Enhorabuena Observador, un comentario donde no has insultado. Me imagino que por ser tan breve.
En mi humilde opinión, la calidad es subjetiva e individual, y no deberíamos sorprendernos de que la mediocridad de la mayoría.
Yo no creo en la salvación en grupo, así que «no nos hemos dado cuenta», es un comentario que solo constata el fracaso de la mayoría, pero sin apuntar a la solución que yo encuentro,: hacer de la búsqueda de la calidad la base de la felicidad.
La ciencia es una herramienta que depende de cada uno usarla. La ciencia no pretende convencer, sino dar un método a quien busca respuestas. La mayoría desprecia la ciencia. Yo con esa «mayoría», lo que quiero es distanciarme.
Un saludo
IMHO la 4ª «V» del Big Data, y Google es una compañía Big Data, es sin duda la «Veracidad» de la información (Volumen, Velocidad y Variedad están aceptadas como las tres primeras, algunos autores añaden el Valor).
Esto nos lleva a algo más profundo, que suele encuadrarse en el concepto de «Knowledge Crystallization»: no se trata únicamente de discriminar cuál es «la Verdad», sino qué información es relevante para quién.
Recomiendo consultar este paper https://www.cs.cmu.edu/~nlao/publication/2014.kdd.pdf escrito por ingenieros de Google, describiendo el concepto de Knowledge Vault, es muy ilustrativo. Es cierto que Google dice que ese no es su esfuerzo oficial en esa línea, pero sin duda están trabajando en su «fuente de verdad», están realizando contrataciones de científicos importantes en áreas relacionadas…
Sin embargo más que como una amenaza, imho de nuevo, creo que es una oportunidad para otras empresas. Una «Knowledge Vault» que funcione, aplicando un 5 Fuerzas de Porter, genera automáticamente un SUSTITUTIVO creíble del motor de búsqueda de Google. Imagino que los tiros van por ahí, Google ve como amenaza que alguien diseñe una manera de crear un repositorio de verdad que se alimente automáticamente de forma sostenible, cuestión que los científicos informáticos ahora no tienen resuelta.
Muy interesante artículo.
Y es que la búsqueda de la certeza absoluta es algo que atormenta al ser humano desde que empezó a pensar.
Y es eso precisamente, pensar, lo que hace al ser humano ser lo que es y llegar a donde ha llegado. En mi opinión, tildarla de metafísica si queréis, el ser humano esta perdiendo cada vez mas su libre albedrío, y ya no se trata de quién o qué organismo diga cuál es la verdad que importa y a quien le importa. Mientras tenga que existir un organismo así, por neutral que sea, la verdad estará secuestrada.
Nos esforzamos por crear sistemas que nos ahorren el paso de construir nuestra certeza y esto nos resta libertad.
Es mas, esta demostrado que un razonamiento puramente lógico nos evoca a un futuro de supervivencia pura sin libre albedrío ni evolución posible ya que, en si mismas requieren dosis de transgresión y ruptura del sistema impuesto con lo que, desde la lógica, son peligrosas para la continuidad de la especie.
Soy pleno defensor de la tecnología y apasionado de los retos que la evolución de la misma va superando, de verdad. Pero creo que el enfoque es fundamental y en mi opinión el reto esta en desarrollar una inteligencia artificial en sincronía con nuestras pulsiones. No solo capaz de razonar lógicamente y semánticamente sino, también, emocionalmente, porque es la clave del comportamiento humano.
En definitiva poniendo, un simil con la educación infantil, yo prefiero enseñar a mi hijo con todas las herramientas posibles a desarrollar su potencial para que pueda construir su realidad, no la mía. En el futuro estoy seguro que sabrá evolucionar hasta el límite que él mismo se ponga y no se conformará con que ninguna verdad ajena le diga lo que tiene que pensar.
En fin, una mera opinión quizá un poco anticipatoria y con cierta dosis de off topic. Sirva como mera reflexión…
Un saludo a todos.
Intentó ganar en calidad mediante la estrategia de Authorship, y para la único que le sirvió es para perder dinero pues las fotos de los que sabían «trabajarse» las SERPs conseguina más CTR que sus propios anuncios de cabecera.
Lo intenta cada día con sus multiples algoritmos antiSEOs, pero parece que en esto todos son españoles y se saben bien el dicho que «hecha le ley hecha la trampa».
En mayo intentará un nuevo intento renacer authorship, o el concepto que había por debajo de esto, reconocer a los mejores autores de cada disciplina de la mano de Google+ (en este caso los mejores «publicadores» de cada temática). Aquí nuevamente creo que va a fracasar.
Se requiere un tipo de algoritmo distinto que lo que se está empleando y hay un problema de base.
¿Qué es calidad? Hay tantas respuestas como humanos.
Ése es el problema, google está haciendo con su buscador lo mismo que el estado con sus leyes para la cultura. En lugar de mejorar la calidad de su servicio, está persiguiendo a quienes no siguen sus parámetros. Ése es el error de google, imponer cómo debe ser la información en lugar de buscar cuál es la mejor información. Creo que la clave es que ha penalizado tanto que la gente busca la información en vídeo. Por ejemplo, que es donde google no puede tocar demasiado.
¿Por que le pides a Google que actúe como un gobierno? Google es una empresa privada, sus objetivos son bien distintos.
Existe la extraña teoría que Google es un servicio publico y no lo es.
¿De verdad todo el mundo busca calidad todo el tiempo? Yo creo que en muchas ocasiones la gente no busca calidad, sino otras cosas. Por ejemplo, los periódicos más cerrilmente partidistas tienen su público, bastante numeroso, que no quiere rigor periodístico, sino que le confirmen sus prejuicios.
Google no debería perseguir el dar calidad, ni el dar la verdad, sino el proporcionar a cada uno lo que quiere encontrar en cada momento.
Como siempre, una interesante reflexión. Gracias por compartirlas con nosotr@s.
Por añadir algo más, creo que en este tema deberíamos tener muy en cuenta a Baidu (el Google chino con sede en Pekin) y las nuevas ideas y resultados que vienen teniendo con su Deep Learning. Reconocimiento facial (mucho mejor que a nivel humano) , reconocimiento de voz y el reconocimiento del comportamiento.
Recientemente se ha publicado en linea, la charla que +Andrew Ng, Director Científico de Baidu, pronuncio en la GPU Technology Conference 2015, sobre este tema. http://www.ustream.tv/recorded/60113824