Educando a la Inteligencia Artificial

Adrian Solca
5 min readMar 29, 2016

--

Probablemente todos escucharon de Tay, el experimento de Microsoft para crear un bot de Inteligencia Artificial que en menos de 24 horas fue suspendido debido a que, para sorpresa de nadie, los usuarios le enseñaron comentarios racistas y genocidas.

Información sobre dicho evento hay mucha en la web, así que no perderé tiempo en profundizar al respecto. Lo que quiero enfatizar es la cobertura que recibió el suceso y particularmente el tono que recibieron las notas de prensa.

Tay es un bot. Es una serie de líneas de código, pero absolutamente todas las notas de prensa se expresan de Tay como si fuera una persona y además como si fuera una persona capaz de aprender de la misma manera en la que nosotros enseñamos a otros seres humanos, o a nuestras mascotas. Se expresan de Tay como un ente consciente, como si fuera capaz no solo de razonar, sino también de entender lo que dice.

“Looking ahead, we face some difficult — and yet exciting — research challenges in AI design. AI systems feed off of both positive and negative interactions with people. In that sense, the challenges are just as much social as they are technical. We will do everything possible to limit technical exploits but also know we cannot fully predict all possible human interactive misuses without learning from mistakes.”

Microsoft

El mundo entero, incluyendo el mismo Microsoft, se refiere a Tay de la misma manera a la que se referiría a un ser humano, capaz de entendimiento, razonamiento y comprensión, pasando por alto que Tay, por principio, no debería siquiera poder formar frases coherentes ni gramaticalmente sensatas, como de hecho se puede ver en algunos de sus primeros Tweets:

Tay no solo superó esa barrera, sino que convenció a miles de usuarios y de medios que estaban tratando con una persona real, o al menos sintiendo como que lo hacían. Esto es un paso increíblemente avanzado para nuestra relación con la Inteligencia Artificial y un testigo de las expectativas para las experiencias que vamos a diseñar en un futuro.

A nadie le sorprendería si una caja registradora o una marquesina comenzaran a lanzar comentarios racistas, todos podrían suponer que algún bromista configuró el aparato para funcionar así ¿Cuál es la diferencia con Tay? ¿Por qué Microsoft incluso tuvo que disculparse de los comentarios racistas de una computadora que aprendió de lo que claramente es un ataque de trolls? de la misma manera en la que la gente le enseña groserías a un perico o a un bebé solo por entretenerse ¿Por qué sentimos que Tay es un sistema independiente, autónomo y capaz de razonar?

En esa misma línea, hace un par de semanas di con esta serie de Tweets de una chica “feminista” que acusaba a Siri de ser sexista por no dar respuesta a “Siri, he sido violada” (lo cual es falso, Siri da como respuesta direcciones de centros de apoyo).

Sobra debatir el despampanante nivel de ignorancia del comentario en cuestión, pero lo que me llama la atención es, otra vez, la idea de que la Inteligencia Artificial es capaz de ser sexista, racista o tener alguna clase de prejuicio, como si fuera un humano, con una brújula moral o consciente de su contexto y entorno, escapando por completo a la realidad de que Siri únicamente es una serie de líneas de código programadas para interactuar entre si y formar el equivalente computacional a redes neuronales.

Ahora, un ejemplo más. Este es el caso de unos estudiantes que dejaron suelto a un robot que, básicamente, es un bote de basura sobre una Roomba. En este caso el robot no era autónomo y no poseía Inteligencia Artificial, pero podemos ver que los humanos que interactúan con el esperan cierto nivel de “razonamiento” del mismo. Creen que lo pueden tentar con basura, pensando que acumular basura es su propósito y esperando alguna especie de agradecimiento al sentirse útil, o esperando que el robot se sepa ignorado y que por lo tanto no es necesitado, de la misma manera en la que nosotros entenderíamos un gesto similar. Este ejemplo es particularmente fascinante porque el robot no tiene absolutamente ninguna característica humana, pero igual los usuarios esperan que sea capaz de expresar algún tipo de emoción, aunque sea con un movimiento o una sacudida.

¿Y todo esto que significa para el futuro de la Inteligencia Artificial? De estos ejemplos podemos deducir mucho de comportamiento humano al interactuar con robots. Me parece sumamente fascinante lo rápido que hemos evolucionado en nuestra manera de interpretar e interactuar con la Inteligencia Artificial. No ha pasado ni una década de que nuestra interacción con máquinas no podía ser más sofisticada de utilizar comandos de voz muy específicos como “llamar a…” o “encender” y “apagar”, pero en cuanto los robots expresan la más mínima capacidad de “razonamiento” (o lo que a nosotros nos da la impresión de serlo) súbitamente estas máquinas están sujetas al mismo escrutinio y juicio al que estaría cualquier ser humano.

¿Cómo podemos desarrollar robots moralmente correctos cuando nosotros, como especie somos sumamente ambiguos y contradictorios? Microsoft podría enseñarle a Tay que “Hitler” es una mala palabra, pero que pasa cuando la palabra Hitler se encuentra en el contexto correcto (Cómo en el caso de un usuario haciendo preguntas de historia)? ¿Cómo puede una serie de líneas de código entender el contexto y el subtexto, así como las miles de posibles interpretaciones de una frase o un mensaje? ¿Por qué los humanos interpretan un mensaje de error o un evidente abuso del sistema como sexismo o racismo? ¿Puede un robot en realidad ser sexista? ¿Puede un robot tener prejuicios o simplemente nos molesta que los robots no son más que un espejo de nosotros mismos?

Y ese es el objetivo de este artículo. Obviamente a estas alturas yo no tengo ninguna respuesta, pero me parece intrigante y considero nuestra obligación como diseñadores, el comenzar a buscar las respuestas pronto. Porque hasta que no las contestemos, no importa que tan avanzados sean los robots que lleguemos a desarrollar, primero tenemos que entender a los usuarios que lo van a utilizar, sus expectativas, sus necesidades y sus objetivos. Si el éxito de la adopción de la Inteligencia Artificial viene de la mano con generar una experiencia similar a la que tendríamos con otro ser humano, nos espera un futuro tan complicado como nosotros mismos.

--

--

Adrian Solca

User Experience Architect / Curador @UXMexico /#UX / adriansolca.com