#11 De la interfaz gráfica a la interfaz conversacional
Había pesando titular este artículo GUI vs VUI pero luego pensé que utilizar estos términos dejaría fuera a muchas personas que no conocen su significado y por lo tanto quizás ni entrarían a escuchar este podcast.
Si prefieres escuchar el podcast puedes hacerlo desde el reproductor que está justo debajo o suscribiéndote de forma gratuita a nuestro podcast de Píldoras UX a través de Spotify.
De la interfaz gráfica a la interfaz conversacional
Así que antes de nada déjame que te explique cada concepto. La GUI es la abreviatura de la interfaz de usuario gráfica, mientras que VUI es una interfaz conversacional, es decir una comunicación entre humano máquina donde el medio no es la interacción a través de una pantalla sino a través de la voz.
Los inicios de la interfaz gráfica surgieron a finales de los años 70 tal y como te explico en el podcast número 9 de Píldoras UX, por lo que comparando esta con la interfaz conversacional podríamos decir que esta última todavía está en pañales.
Para aclararte mejor este concepto, el objetivo del uso de una interfaz de usuario de voz, es permitir al usuario interactuar con el sistema o máquina utilizando simplemente su voz. Por lo que, en lugar de deslizarse por una pantalla o tocar un teclado, el usuario da comandos de voz, vamos que no necesita usar sus manos en ningún momento.
Durante la fase de investigación, el diseño de una interfaz de usuario de voz es similar al diseño de una interfaz gráfica de usuario (GUI) ya que hay que considerar quién usará la interfaz, para qué la usará y en qué dispositivo. El objetivo sigue siendo el mismo: comunicar la información necesaria al usuario de la forma más eficaz posible.
En la interfaz conversacional, el usuario no navega por las diferentes capas para encontrar la opción que busca, sino que pide algo específico, proporcionando toda la información necesaria de una sola vez.
Esta es una gran diferencia con respecto a la interfaz gráfica, ya que aquí no hacemos varios clics o interacciones para conseguir nuestro objetivo sino que acortamos el proceso de navegación con un simple comando de voz dirigido a conseguir una información concreta que nos devolverá el asistente.
Vamos a escuchar el siguiente ejemplo donde una usuaria pregunta a su asistente “Google Home”, información sobre su vuelo. Cada asistente activa su escucha con un comando de voz específico, en este caso es al decir “OK, Google”.
La única curva de aprendizaje en este caso es que, como usuario, necesitas saber qué comando de voz tienes que decir para cada acción que quieres que realice tu asistente.
La inteligencia artificial
Cada asistente de voz tiene detrás una inteligencia artificial. Si las palabras que utilizas no son las que la inteligencia artificial tiene, por así decirlo, programadas, entonces este te dirá que no puede ayudarte y que pruebes con otro comando de voz, es posible que incluso te de recomendaciones.
¿Sabes qué es y de dónde viene la inteligencia artificial? En nuestro siguiente podcast hablaremos de ella. Yolanda del Olmo (profesora de PíldorasUX) entrevistará a Jenifer Prado, ingeniera y Digital Arquitect en Microsoft. Jenifer es experta en inteligencia artificial. Ella nos hablará sobre qué hace exactamente, para que entiendas mejor nuestro próximo podcast voy a introducirte un poco de historia de la inteligencia artificial o AI.
Aunque se lleva investigando en la inteligencia artificial desde los años 50, no ha sido hasta hace poco más de 10 años, que se avanzó lo suficiente para que pudiera llegar a lo que conocemos hoy por asistentes de voz.
Los años 70 dio paso a lo que se conoció como el invierno de la inteligencia artificial. Esto fue debido a que el matemático James Lighthill presentó un informe cuyo punto de vista era que las máquinas sólo serían capaces de un nivel de ajedrez “amateur experimentado” y que el razonamiento de sentido común y las tareas supuestamente simples como el reconocimiento facial siempre estarían más allá de su capacidad.
Este informe y los pocos avances en ese campo hicieron que los fondos para la industria se redujeran drásticamente. Pero en los años 80, los investigadores decidieron que en lugar de intentar crear una inteligencia artificial simulando la del ser humano, sería mejor crear “sistemas expertos” que se centraran en tareas mucho más limitadas.
Eso significaba que sólo necesitaban ser programados con las reglas de un problema muy particular. Y vualá, aquí es cuando comenzaron los primeros pasos en el avance de la inteligencia artificial y por ello es posible que a día de hoy puedas hablar con tu smartphone, con tu coche o con un Alexa o Google Home.
Y aunque parecía simple el reconocimiento del habla era uno de los objetivos clave de AI, décadas de inversión nunca habían conseguido elevarlo por encima del 80% de precisión en el entendimiento del reconocimiento de voz.
Pero Google comenzó a investigar en ello y acabó siendo pionero en un nuevo enfoque: conectó miles de ordenadores potentes, ejecutando redes neuronales paralelas, aprendiendo a detectar patrones en los grandes volúmenes de transmisión de datos de los numerosos usuarios de Google. Al principio era bastante inexacto, pero después de años de aprendizaje y mejoras, Google a día de hoy afirma que su reconocimiento de voz es un 92% exacto.
Pero no fue hasta mayo de 2016 cuando lanzó Google Assistant como parte de la aplicación de mensajería de Google Allo, y en su asistente de Google Home.

El asistente de voz SIRI fue lanzado unos años antes como aplicación para iOS en 2010, y fue integrado en el iPhone 4S en su lanzamiento en octubre de 2011.
Otro asistente de voz muy conocido es Alexa de Amazon, que llegó a España en el verano del 2018 aunque en Estados Unidos ya llevaba funcionando unos años. Existen muchos otros como Cortana de Microsoft o Aura de Telefónica.
¿Cómo encaja esta nueva tecnología en el mundo del diseño de experiencia de usuario?, para diseñar interfaces de voz las empresas piden expertos en diseño UX especializados en diseño conversacional. Este es un nuevo perfil que se llama “Conversational designer” y apenas acaba de llegar al mercado laboral español y aunque muy escasas ya se van viendo alguna ofertas laborales.
Este perfil no solo necesita tener conocimientos de diseño UX sino también cómo diseñar un diálogo entre humano máquina, teniendo en cuenta todas las posibles interacciones por voz entre el asistente y el usuario. La lógica que funciona para una interfaz gráfica casi nunca va a funcionar como si fuera una interfaz conversacional por lo como diseñadores necesitamos aprender esta nueva manera de interactuar con un asistente de voz.
¿Te ves en el futuro diseñando interfaces de voz? a día de hoy yo todavía me siento una estudiante del tema, y la verdad me parece fascinante.
Si vives en Madrid y quieres aprender más sobre el tema, te recomiendo que vayas a las charlas de Woman in Voice sobre diseño de interfaces conversacionales.

En su próximo evento el 4 de diciembre del 2019, yo misma explicaré mi experiencia diseñando una interfaz conversacional con inteligencia artificial de IBM en el proyecto de WatsomApp. Un proyecto muy bonito y necesario, donde ayudamos a las escuelas a detectar el bullying utilizando un robot que se comunica con los estudiantes.
Me gustaría terminar este podcast diciendo que la mejor interfaz posible en la comunicación entre humano máquina es la comunicación por voz, ya que es nuestro medio natural de comunicación. Este es uno de los motivos por los que la interfaz por voz, también es llamada la interfaz invisible. Y qué mejor interfaz que la que nos permite comunicarnos de la forma más natural posible.
¿Te imaginas un futuro donde toda la interacción que tengas con tus dispositivos digitales sea por voz? yo no dudo que esta tecnología cada vez avanzará mas y dentro de una o dos décadas será muy habitual hablar con las máquinas en vez de interactuar con ellas a través de una interfaz gráfica de usuario.
¿Tú cómo lo ves? si te ha gustado este tema te recomiendo leer las referencias del artículo relacionado a este podcast, y si te ha quedado alguna duda puedes preguntarme a través de las redes sociales de Píldoras UX de Twitter, Instagram o Facebook.
Referencias
AI: 15 key moments in the story of artificial intelligence
Artículo Píldoras UX — Diseñar para Alexa y Google Home
Nuevo perfil “Conversation designer”