Victor Gonzalez Pacheco

Victor Gonzalez Pacheco

EMBA por el IE Business School, Doctor en Inteligencia Artificial y Robótica, e ingeniero en Telecomunicaciones. Su pasión es acercar la Inteligencia Artificial y la Robótica a la sociedad para hacer de este mundo un mundo mejor. Desde LUCA está ayudando a otras empresas en su transformación hacia organizaciones AI-driven
AI & Data
La educación post COVID-19: 6 claves y 3 retos
Llevamos ya varias semanas de confinamiento y, junto al sufrimiento en común que todos estamos sobrellevando, hay algo que cada vez tenemos más claro: cuando esto pase, cuando superemos esta crisis, y cuando miremos atrás, veremos que el mundo antes del Coronavirus era muy diferente. No estoy hablando de cómo será el mundo inmediatamente después de la pandemia, sino unos años más tarde. Para entonces, habremos adquirido nuevos hábitos que nos parecían imposibles antes de 2020: trabajaremos de manera diferente, viajaremos de manera diferente, pagaremos de manera diferente, nos relacionaremos de manera diferente y también, esta vez sí, nos educaremos de manera diferente. Estos nuevos hábitos, una vez adquiridos serán difíciles de eliminar y cambiarán muchos aspectos de la sociedad. Veamos como lo harán en la educación. ¿Cómo será la educación post COVID-19? Digital El primer cambio es, como no podía ser de otra forma, que nos hemos vuelto más digitales. En la educación, el factor tecnológico cobrará mucha más fuerza que antes y esto nos obligará a replantearnos las metodologías. La masterclass cada vez tendrá menos sentido (aunque no desaparecerá completamente), y derivará hacia formatos asíncronos. Los alumnos esperarán que, si el profesor va a impartirles un monólogo, ellos puedan pausar, avanzar y retroceder la clase a su antojo, tal y como ya lo hacen con vídeos en Youtube u otras plataformas. Es más, en un mundo en el que cada vez estamos más ocupados y bombardeados de estímulos, será común ver las lecciones más tediosas aumentando la velocidad de reproducción a 1,5x o 2x (es decir, aumentando la velocidad a un 50% o a el doble del ritmo normal). Si os parece sorprendente, pensad que ya hay gente demandando poder cambiar la velocidad de reproducción en servicios como Netflix. Si esto ocurre con el entretenimiento, estad seguros que también lo haremos en otro tipo de contenidos. Líquida Los primeros meses tras el confinamiento es probable que las clases no se puedan llenar al 100%, por lo que los profesores tendrán que estar preparados para impartir clase tanto a alumnos presenciales como alumnos digitales. Por ello, la digitalización también nos llevará a una educación más líquida, alternando y combinando fases presenciales con fases no presenciales y fases síncronas con fases asíncronas. Las flipped classroom cobrarán más importancia aún y, esperemos, incrementarán su adopción. Esto requerirá a los profesores a adaptarse a nuevas metodologías a las que no estaban acostumbrados. Primero, tendrán que convertirse en generadores de contenidos digitales, y segundo, en gestores de experiencias y dinámicas en clase. Los alumnos que acudan presencialmente a clase esperarán que estas sean momentos memorables con experiencias por las que merezca la pena haber invertido su tiempo en ellas. Life-long Life-long learning ya estaba con nosotros, pero ahora ha llegado para quedarse. Estamos en un mundo VUCA (Volatile, Unknown, Complex, Ambiguous) y la presión por la constante mejora y reciclado serán más fuertes que nunca. El aumento de la presión por digitalizar las empresas y las organizaciones no hará más que acelerar este proceso. Y aquí los MOOCs y otras iniciativas similares deberán aceptar el reto. Hasta ahora, a pesar de ser una gran promesa, siguen enfrentándose a tasas de abandono enormes y reducirlas será (es ya) su próximo reto. Probablemente la dirección a tomar será virar hacia módulos más y más pequeños donde el alumno podrá adquirir pequeñas skills invirtiendo muy poco tiempo. Esto está alineado con dos tendencias actuales: la primera es la inmediatez que todos demandamos en esta sociedad hiperconectada, mientras que la segunda es el mercado basado en skills, consecuencia de cambios en la demanda de perfiles en las empresas (ya no buscan candidatos para cubrir sus puestos, si no que buscan skills concretas para cubrir necesidades). Abierta y colaborativa La educación será más abierta y colaborativa. Antes de Internet, el libro y el profesor eran la única fuente de conocimiento. Ahora los alumnos tienen que aprender a filtrar información entre un mar de abundantes fuentes, no siempre fiables. Pero Internet no sólo trajo más fuentes de información. También nos permitió estar permanente conectados con colegas, amigos y familiares. Así que, seamos realistas, en una sociedad hiperconectada no esperemos que los alumnos estén contentos cuando sus profesores les pidan que se desconecten del mundo para “aprender”. Preguntad a cualquier adolescente que conozcáis como hacen “quedadas virtuales” en Whatsapp y otras aplicaciones de mensajería instantánea para resolver ejercicios juntos. Es paradójico que esperemos que los alumnos resuelvan sus trabajos y ejercicios individualmente, cuando el mundo laboral valora enormemente las capacidades de colaboración y trabajo en equipo. En lugar de prohibir estas prácticas ¡deberíamos alentarlas! Sin exámenes El examen perderá fuerza como instrumento de evaluación. En un entorno educativo líquido, con fuerte asincronía, y profundamente colaborativo, el examen pierde sentido y cederá terreno en favor de otras metodologías de evaluación. Entre otras, peer review y sistemas de evaluación automatizados, capaces de devolver feedback en tiempo real al alumno cobrarán cada vez más peso. Para ello los tutores y formadores deberán diseñar las experiencias educativas cuyas evaluaciones permitan corregir y mejorar al alumno casi a la vez que va aprendiendo. Cobrarán también fuerza otros aspectos más cualitativos y, según el tipo de educación, autoevaluables. Muchos docentes son escépticos, pero os garantizo que hay vida más allá de los exámenes. Cuando he impartido docencia en la universidad jamás he evaluado a mis alumnos con este tipo de pruebas, y ahora que lo impartiré clases en una escuela de negocios, tampoco pienso hacerlo. Pero no penséis que esto es sólo aplicable a educación universitaria o post-universitaria. Mis hijas acuden a un colegio sin exámenes, y cada trimestre recibo un informe completo indicando en qué son fuertes y qué deben reforzar. No utilizar exámenes no significa no evaluar ni desconocer el nivel de avance de los alumnos, sino hacerlo de otra manera. Y en el mundo post-covid ya no deberá ser la excepción. Retos a abordar · Tecnológico. El digital divide es real en muchos países y los gobiernos tendrán que luchar para garantizar que este no afecte a la igualdad del derecho a educación básica. Esto tendrá menos peso en la educación terciaria y corporativa, pero será especialmente importante educación primaria y secundaria. Ha ocurrido ya durante el confinamiento y será uno de los retos a resolver. Proveer de tecnología y conectvidad a las aulas es clave, pero también hay que garantizar el acceso a la conectividad y a medios tecnológicos por parte de todo el alumnado en sus hogares. · Desarrollo de capacidades. En cualquier proceso de transformación digital (y el proceso de transformación de la educación es uno) es de vital importancia garantizar que la fuerza laboral adquiera las capacidades adecuadas para poder llevar a cabo esta transformación. La alfabetización digital será más importante que nunca, requiriendo a los docentes convertirse en expertos en creación de contenidos multimedia, publicación y administración web, gestión de comunidades digitales, etc. · Metodológico. En el ámbito educativo, los docentes no sólo van a tener que aprender nuevas herramientas, sino que, más importante aún, tendrán que aprender nuevas metodologías. La tecnología es la base, pero no debemos pensar que podemos resolver un problema arrojándole tecnología sin más. Cuando llegó la electricidad a las fábricas, una de las primeras críticas que recibió es que no aportaba ningún beneficio respecto al vapor. No fue hasta pasados varios años que se entendió que esta tecnología permitía reconfigurar el layout y la disposición de las máquinas en la fábrica, permitiendo ganancias enormes en productividad y eficiencia. Con la educación ocurrirá lo mismo, los mejores docentes no serán aquellos que dispongan de las mejores tecnologías, sino aquellos que descubran qué nuevas metodologías se pueden aplicar en este nuevo modelo educativo. Sir Ken Robinson, en una de las charlas TED más famosas, asegura que tenemos un modelo educativo que data de la revolución industrial. Ha llegado el momento que lo modernicemos saltando de la revolución industrial a la revolución digital. Tenemos una oportunidad inigualable y éste es el momento adecuado. Aquellos que piensen que todo seguirá igual, sabed que vuestros clientes, vuestros alumnos, han cambiado de hábitos, han descubierto un nuevo mundo, el mundo digital, y ya han migrado hacia él. Estad seguros que ya no van a volver. Es el momento de decidir si migramos con ellos o nos quedamos en el viejo mundo... otro siglo más. Para mantenerte al día con LUCA visita nuestra página web, suscríbete a LUCA Data Speaks o síguenos en Twitter, LinkedIn y YouTube.
6 de mayo de 2020
AI & Data
Mejorando la operatividad de un Call Center con Machine Learning
Entender a nuestros clientes y dar la mejor respuesta a sus necesidades en el menor tiempo posible es clave para aumentar su satisfacción y su engagement con la compañía. El problema comienza cuando el número de clientes es alto y nos llegan cientos o miles de mensajes al día. En esta situación tenemos dos problemas a solucionar. Primero hay que priorizar a qué mensajes le vamos a dar respuesta primero y, segundo, hay que entender qué es lo que nos dicen. Está claro que algunos mensajes serán más importantes o más urgentes que otros, y no siempre es fácil priorizar. Para facilitar esta tarea podemos servirnos de técnicas de Machine Learning que hagan parte del trabajo por nosotros. En este post nos vamos a centrar en el caso de un Call Center para clientes B2B de una operadora Telco. Una parte de las comunicaciones y las gestiones de los clientes con el Call Center se realizan mediante correos electrónicos. Analizando estos correos es posible extraer métricas que nos ayuden a entender las necesidades de los clientes que se comunican por esa vía. Este análisis se realiza, principalmente, mediante técnicas de Procesamiento de Lenguaje Natural (PLN). De hecho, nosotros hicimos la analítica a dos niveles: Nivel de operativa – Este nivel es más básico e implica un análisis a nivel de envío y respuesta de correos. Esto se hace simplemente analizando las cabeceras de los correos. Nivel de contenido – Es decir, procesar el contenido de los mensajes de los clientes para clasificarlos automáticamente en función del contenido de los mismos. Podemos entender esto como las reglas de filtrado que programamos en nuestros clientes de correo, pero mucho más avanzadas. El análisis a nivel de operativa nos permite obtener métricas sencillas como cuantos correos se reciben en el Call Center, de qué clientes, a qué horas se reciben más correos, cuánto se tarda en responder cada correo, etc. Pero también es posible realizar algún análisis más complejo extrayendo datos de conversaciones enteras: analizando los correos de una conversación (un hilo de correos), podemos descubrir cuánto tiempo tardamos en solucionar un problema de un cliente, cuantos correos se han necesitado para solucionarlo, cuantas personas de nuestro Call Center se han visto involucradas o de qué departamentos. El análisis a nivel de contenido es más complejo ya que requiere un pre-procesamiento de los datos más sofisticado pero nos permite extraer insights mucho más interesantes. La limpieza de los correos incluye extraer el cuerpo de los mensajes, limpiarlos (aquí el reto está en eliminar firmas o respuestas en línea a otros correos) y utilizar técnicas de Procesamiento de Lenguaje Natural (NLP) que nos permitan transformar el contenido en características entendibles por el algoritmo de aprendizaje automático que queramos utilizar. Usualmente este paso incluye eliminar stop-words (palabras sin significado como preposiciones o artículos), crear “bags of words” o “n-gramas” y vectorizarlos con algoritmos como, por ejemplo, TF-IDF. Con los datos preparados, ya se puede alimentar a un algoritmo que aprenda a categorizar los correos automáticamente. Nosotros abordamos este problema como uno de clasificación ya que la operadora nos facilitó las categorías en las que quería clasificar sus correos. De esta manera teníamos 8 categorías (altas, modificaciones de línea, incidencias técnicas o bajas entre otros) que etiquetamos manualmente en un conjunto de los datos para su entrenamiento. Aunque esto pueda parecer un proceso laborioso, se puede llegar a resultados interesantes muy rápidamente. Por ejemplo, con sólo una muestra de 100 correos etiquetados ya era posible distinguir perfectamente algunas de las categorías propuestas por el cliente. A continuación detallamos algunos de los KPIs que obtuvimos del Call Center: Tiempo de respuesta medio a los correos por parte de los operadores. Tiempo de resolución de incidencias (es decir el tiempo entre el primer y el último mail de una cadena de correos) Tamaño de la cola de correos e incidencias por resolver en cada momento. Es decir, número de correos por contestar e incidencias por resolver en cada momento (podemos sacar los tamaños de estas colas por hora o bien día de la semana), lo que nos permite conocer si estamos ante un pico de incidencias. Al procesar el contenido de los correos, podemos categorizar los mismos automáticamente y con estas categorías, se pueden asignar correos automáticamente a la persona más indicada para su respuesta. Adicionalmente, conociendo las categorías de los correos, es posible tener las métricas anteriores por categoría. Por ejemplo, volúmenes y tiempos de respuesta por categoría. En este post hemos visto qué métricas podemos obtener de un análisis de correos electrónicos de los clientes de un Call Center. Analizando las cabeceras y el contenido de los correos es posible obtener métricas que nos faciliten KPIs de la capacidad operativa y del dimensionamiento del Call Center así como datos que nos ayuden a perfilar al cliente y sus necesidades. Para mantenerte al día con LUCA visita nuestra página web. También puedes seguirnos en Twitter, LinkedIn y YouTube.
20 de agosto de 2019
AI & Data
Una Breve Historia del Machine Learning
Como miembros de la comunidad del Machine Learning es bueno que conozcamos la historia del sector en el que trabajamos. Aunque actualmente estamos viviendo un auténtico boom del Machine Learning, este campo no siempre ha sido tan prolífico, alternando épocas de altas expectativas y avances con “inviernos” donde sufría severos estancamientos. Nacimiento [1952 – 1956] 1950 — Alan Turing crea el “Test de Turing” para determinar si una máquina era realmente inteligente. Para pasar el test, una máquina tenía que ser capaz de engañar a un humano haciéndole creer que era humana en lugar de un computador. 1952 — Arthur Samuel escribe el primer programa de ordenador capaz de aprender. El software era un programa que jugaba a las damas y que mejoraba su juego partida tras partida. 1956 — Martin Minsky y John McCarthy, con la ayuda de Claude Shannon y Nathan Rochester, organizan la conferencia de Darthmouth de 1956, considerada como el evento donde nace el campo de la Inteligencia Artificial. Durante la conferencia, Minsky convence a los asistentes para acuñar el término “Artificial Intelligence” como nombre del nuevo campo. 1958 — Frank Rosenblatt diseña el Perceptrón, la primera red neuronal artificial. Primer Invierno de la IA (AI-Winter) – [1974 – 1980] En la segunda mitad de la década de los 70 el campo sufrió su primer “Invierno”. Diferentes agencias que financian la investigación en IA cortan los fondos tras numerosos años de altas expectativas y muy pocos avances. 1979 — Estudiantes de la Universidad de Stanford inventan el “Stanford Cart”, un robot móvil capaz de moverse autónomamente por una habitación evitando obstáculos. 1967 — Se escribe el algoritmo “Nearest Neighbor”. Este hito está considerado como el nacimiento al campo del reconocimiento de patrones (pattern recognition) en computadores. La explosión de los 80 [1980 – 1987] Los años 80 estuvieron marcados por el nacimiento de los sistemas expertos, basados en reglas. Estos fueron rápidamente adoptados en el sector corporativo, lo que generó un nuevo interés en Machine Learning. 1981 — Gerald Dejong introduce el concepto “Explanation Based Learning” (EBL), donde un computador analiza datos de entrenamiento y crea reglas generales que le permiten descartar los datos menos importantes. 1985 — Terry Sejnowski inventa NetTalk, que aprende a pronunciar palabras de la misma manera que lo haría un niño. Segundo AI Winter [1987 – 1993] A finales de los 80, y durante la primera mitad de los 90, llegó el segundo “Invierno” de la Inteligencia Artificial. Esta vez sus efectos se extendieron durante muchos años y la reputación del campo no se recuperó del todo hasta entrados los 2000. 1990s — El trabajo en Machine Learning gira desde un enfoque orientado al conocimiento (knowledge-driven) hacia uno orientado al dato (data-driven). Los científicos comienzan a crear programas que analizan grandes cantidades de datos y extraen conclusiones de los resultados. 1997 — El ordenador Deep Blue, de IBM vence al campeón mundial de ajedrez Gary Kaspárov. Explosión y adopción comercial [2006-Actualidad] El aumento de la potencia de cálculo junto con la gran abundancia de datos disponibles han vuelto a lanzar el campo de Machine Learning. Numerosas empresas están transformando sus negocios hacia el dato y están incorporando técnicas de Machine Learning en sus procesos, productos y servicios para obtener ventajas competitivas sobre la competencia. 2006 — Geoffrey Hinton acuña el término “Deep Learning” (Aprendizaje Profundo) para explicar nuevas arquitecturas de Redes Neuronales profundas que son capaces de aprender mucho mejor modelos más planos. 2011 — El ordenador Watson de IBM vence a sus competidores humanos en el concurso Jeopardy que consiste en contestar preguntas formuladas en lenguaje natural. 2012 — Jeff Dean, de Google, con la ayuda de Andrew Ng (Universidad de Stanford), lideran el proyecto GoogleBrain, que desarrolla una Red Neuronal Profunda utilizando toda la capacidad de la infraestructura de Google para detectar patrones en vídeos e imágenes. 2012 — Geoffrey Hinton lidera el equipo ganador del concurso de Visión por Computador a Imagenet utilizando una Red Neuronal Profunda (RNP). El equipo venció por un amplio margen de diferencia, dando nacimiento a la actual explosión de Machine Learning basado en RNPs. 2012 — El laboratorio de investigación Google X utiliza GoogleBrain para analizar autónomamente vídeos de Youtube y detectar aquellos que contienen gatos. 2014 — Facebook desarrolla DeepFace, un algoritmo basado en RNPs que es capaz de reconocer a personas con la misma precisión que un ser humano. 2014 — Google compra DeepMind, una startup inglesa de Deep Learning que recientemente había demostrado las capacidades de las Redes Neuronales Profundas con un algoritmo capaz de jugar a juegos de Atari simplemente viendo los píxeles de la pantalla, tal y como lo haría una persona. El algoritmo, tras unas horas de entrenamiento, era capaz de batir a humanos expertos en algunos de esos juegos. 2015 — Amazon lanza su propia plataforma de Machine Learning. 2015 — Microsoft crea el “Distributed Machine Learning Toolkit”, que permite la distribución eficiente de problemas de machine learning en múltiples computadores. 2015 — Elon Musk y Sam Altman, entre otros, fundan la organización sin ánimo de lucro OpenAI, dotándola de 1000 Millones de dólares con el objetivo de asegurar que el desarrollo de la Inteligencia Artificial tenga un impacto positivo en la humanidad. 2016 – Google DeepMind vence en el juego Go (considerado uno de los juegos de mesa más complicados) al jugador profesional Lee Sedol por 5 partidas a 1. Jugadores expertos de Go afirman que el algoritmo fue capaz de realizar movimientos “creativos” que no se habían visto hasta el momento. A fecha de hoy estamos viviendo una tercera explosión de la inteligencia artificial. Aunque existen escépticos que no descartan un posible tercer invierno, esta vez los avances del sector están encontrando aplicabilidad en empresas hasta el punto de crear mercados enteros y producir cambios significativos en la estrategia de grandes y pequeñas empresas. La gran disponibilidad de datos parece ser el fuel que está alimentando los motores de los algoritmos que, a su vez, han roto las limitaciones de cálculo que existían antes de la computación distribuida. Todo parece indicar que seguiremos disponiendo de más y más datos con los que alimentar nuestros algoritmos mientras que la comunidad científica no parece quedarse sin ideas con las que seguir avanzando en el campo. Los próximos años prometen ser realmente frenéticos.
18 de enero de 2019