Cómo hacer sonreír a un robot

En una arruga completamente nueva del viejo adagio, Sonríe y el mundo sonríe contigo, frunces el ceño y tú solo frunces el ceño, los investigadores japoneses están produciendo una generación de robots que pueden identificar las expresiones faciales humanas y luego responder a ellas. Un equipo dirigido por Fumio Hara, profesor de ingeniería mecánica en la Universidad de Ciencias de Tokio, ha construido una cabeza robótica femenina que puede reconocer y expresar miedo, felicidad, sorpresa, tristeza, ira y disgusto.



El objetivo principal del proyecto de Hara, que cuenta con el apoyo de una subvención de tres millones de dólares por cinco años del gobierno japonés, no es simplemente producir una versión robótica de monkey-see, monkey-do. En cambio, el objetivo es crear robots que se identifiquen con nosotros y nos hagan sentir más cómodos a medida que leen los cambios emocionales expresados ​​en nuestros rostros. Los investigadores esperan que estos robots visualmente emotivos sean apreciados por los trabajadores de la fábrica obligados a compartir la línea con sus compañeros de trabajo electrónicos. Los robots incluso pueden ser útiles como material didáctico para ciertos niños autistas que tienen un trastorno de la comunicación que les dificulta comprender las expresiones faciales y responderlas correctamente.

¿Está el mundo condenado?

Hazlo hacia abajo

Esta historia fue parte de nuestro número de octubre de 1997





  • Ver el resto del número
  • Suscribir

Una característica sorprendente de la investigación de Hara es su génesis. Durante la gran expansión económica en Japón en la década de 1970, comenzaron a ocurrir accidentes en plantas químicas recién construidas. Hara supuso que los operadores de la planta tenían dificultades para detectar problemas leyendo bancos de paneles de lectura digital. Pensé que lo que necesitaban era una visión más global de lo que estaba sucediendo en la planta, dice, y si algo salía mal, podría expresarse, por ejemplo, como una cara triste.

Por desgracia, los ingenieros pronto se enfrentaron a grandes obstáculos. Descubrieron que no solo era difícil asignar expresiones faciales a la amplia gama de errores operativos, desde un piso de planta desordenado hasta cambios peligrosos de temperatura o presión en el proceso de fabricación, sino también que los operadores humanos individuales interpretaban las mismas expresiones de diferentes maneras. . La tarea de vincular las expresiones faciales a las condiciones de la planta finalmente resultó tan compleja que Hara abandonó la investigación.

Pero a mediados de la década de 1980, cuando uno de sus estudiantes expresó interés en la investigación robótica, Hara se preguntó si el enfoque de expresión facial, aunque era un fracaso a nivel de planta, podría funcionar entre robots individuales y humanos. Comenzó haciendo uso del trabajo de Paul Ekman, profesor de psicología en la Universidad de California en San Francisco, quien dividió los movimientos de las expresiones faciales humanas en 44 categorías o unidades de acción. Cada unidad de acción correspondería a un movimiento individual, como las cejas subiendo o bajando o los labios fruncidos. La combinación de unidades de acción de diversas formas produjo diferentes expresiones. Por ejemplo, el disgusto implica bajar la ceja, arrugar la nariz y levantar la barbilla.



A partir de la década de 1990, el grupo de Hara se propuso crear seis expresiones (miedo, felicidad, sorpresa, tristeza, ira y disgusto) que, según Ekman, son universales para todas las culturas humanas. El equipo construyó una cabeza de robot de aluminio con 18 microactuadores impulsados ​​por presión de aire, en esencia, engranajes diminutos, que podían imitar 26 movimientos faciales. El siguiente paso fue moldear una cara en caucho de silicona de un molde tomado de uno de los estudiantes varones en el laboratorio. Debido a que el grupo de hombres deseaba una presencia femenina en el laboratorio, feminizaron el rostro masculino agregando una peluca de cabello natural, mejillas coloreadas y lápiz labial. La cabeza también estaba equipada con dentadura postiza.

Mediante prueba y error, los investigadores conectaron pequeños cables de los actuadores a puntos en la máscara que, cuando se movían, recrearían las unidades de acción necesarias para reproducir las seis expresiones deseadas. La cabeza y los ojos del robot también fueron diseñados para realizar movimientos similares a los humanos. Finalmente, los ingenieros japoneses colocaron una pequeña cámara en el ojo izquierdo del robot para escanear un rostro humano cuando se colocó a un metro de distancia. Una computadora conectada a la cámara determinaba la expresión de la persona buscando variaciones de brillo en diferentes áreas de la cara.

La computadora observó cambios en las áreas oscuras (ojos, boca, nariz y cejas) que ocurren cuando un rostro pasa de su expresión neutra y sin emociones a la que muestra una de las seis emociones. Usando un programa de autoaprendizaje basado en redes neuronales, la computadora finalmente pudo reconocer en 60 milisegundos cómo los cambios en los patrones de brillo de la cara de un individuo se relacionaban con las expresiones de un sentimiento dado. Tal velocidad de procesamiento combinada con refinamientos en el diseño de los actuadores permitió que la cara de silicona del robot respondiera a los cambios en la expresión con una velocidad similar a la humana.

El robot fue sorprendentemente preciso, adivinando correctamente las expresiones de los sujetos de prueba, en promedio, el 85 por ciento del tiempo. También le fue igual de bien como actor facial. De hecho, un grupo de estudiantes identificó correctamente las expresiones del robot el 83 por ciento de las veces. En comparación, los mismos estudiantes identificaron las expresiones faciales de los actores profesionales el 87 por ciento del tiempo.



Desde que aparecieron los relatos del desempeño del robot a principios de la década de 1990, algunas partes inesperadas se acercaron a Hara. Estos incluyeron a un artista interesado en crear lo que él cree que es una nueva forma de arte (humanos y robots que reaccionan a las expresiones de los demás) y varios psicólogos en Japón que piensan que tal robot podría ayudar a ciertos niños discapacitados a superar la dificultad para manifestar expresiones apropiadas. Los psicólogos harían que el robot actuara como una especie de guía bidireccional, por ejemplo, demostrando cómo se ve una sonrisa feliz y, después de asumir una expresión neutra, indicando cuándo el niño ha sonreído devolviéndole la sonrisa.

¿Quién creó los auriculares Beats?

Más inmediatamente, el equipo de Hara está trabajando en un robot bucal cuyos actuadores imitarían de manera realista los movimientos de los labios durante el habla. Tal robot podría ayudar a las personas con discapacidades del habla o del lenguaje, dice Hara, porque los estudios muestran que más del 50 por ciento de la comprensión del habla proviene de
expresión y movimientos faciales.

esconder

Tecnologías Reales

Categoría

Sin Categorizar

Tecnología

Biotecnología

Política De Tecnología

Cambio Climático

Humanos Y Tecnología

Silicon Valley

Informática

Revista Mit News

Inteligencia Artificial

Espacio

Ciudades Inteligentes

Blockchain

Artículo De Fondo

Perfil De Exalumnos

Conexión De Exalumnos

Característica De Noticias Del Mit

1865

Mi Vista

77 Mass Ave

Conoce Al Autor

Perfiles De Generosidad

Visto En El Campus

Cartas De Exalumnos

Función De Noticias Del Mit

Cadena De Bloques

Perfil De Ex Alumnos

77 Avenida De Masas

Política Tecnológica

Perfiles En Generosidad

Noticias

Revista De Noticias Del Mit

Elecciones 2020

Con Índice

Bajo La Cúpula

Manguera

Historias Infinitas

Proyecto De Tecnología Pandémica

Del Presidente

Artículo De Portada

Galería De Fotos

Recomendado