Innovación

La clave de la relación hombre-máquina es hablar, dice la Universidad Carnegie Mellon

img2790

A medida que ingresamos en la era de las relaciones entre humanos y robots, las máquinas desempeñarán un papel vital para ayudar a los humanos en hogares de ancianos, escuelas, cruceros y en cualquier otro lugar donde se necesite orientación adicional, pero quedan dudas sobre la comunicación. ¿Cómo emitiremos los pedidos? ¿Cómo nos aseguramos de que el robot escuche y comprenda correctamente nuestras órdenes? ¿Cómo sabemos si tienen un problema?

En la Universidad Carnegie Mellon, la profesora Manuela Veloso ha estado utilizando «cobots», robots que ayudan a profesores y estudiantes. Los cobots son esencialmente computadoras portátiles en un soporte, con cestas y ruedas, sin extremidades. Los robots no son solo experimentos, sino parte de la vida cotidiana en algunos rincones de la universidad, guiando a los estudiantes y visitantes por los edificios, transportando artículos en grandes edificios, subiendo y bajando ascensores y largos pasillos. ¿Como funciona? voz.

Tecnopedia habló con Veloso sobre el diseño intencional de los cobots y cómo pueden cerrar la brecha de confianza con los humanos.

¿Por qué es importante la vocalización en la comunicación con los robots?

Estos robots operan en un espacio diferente al nuestro. A todos les apasiona tener mapas, coordenadas y probabilidades, y trabajar con cantidades masivas de datos digitales, ya sean píxeles o imágenes. Todo es otro mundo. Si permitimos que estos agentes realmente tomen decisiones, giren a la izquierda y a la derecha, y les lleven en esta y aquella dirección, comenzarán a cuestionar lo que están haciendo. He estado tratando de comprender esta brecha de representación entre los robots reales y las personas que entienden el lenguaje.

VER: Por qué los robots deben explicar, escuchar y pedir ayuda (Tecnopedia)

He estado invirtiendo mucho en este concepto de verbalización, que los robots pueden verbalizar o decir cuando les hacemos preguntas sobre lo que hicieron y por qué lo hicieron. Es un desafío cuando tienes cajas negras que solo procesan datos y nos dan resultados, y ni siquiera sabemos por qué sucede algo. Tenemos que entender cómo cerrar la brecha entre el lenguaje de las máquinas y el lenguaje humano, las máquinas son inteligentes y los humanos son inteligentes. Es más o menos que tenemos que ser capaces de hablar el mismo idioma o tratar de entendernos.

LEER  Amigos por correspondencia para el siglo XXI: Estudiantes de todo el mundo imprimen en 3D y crean aplicaciones con Level Up Village

Su robot se mueve sin GPS.

Están percibiendo las paredes circundantes y el espacio circundante. Suelen calcular dónde están las paredes de un edificio. Por ejemplo, no pensarán en la persona como una pared. No piensan en la mesa como una pared. Debe ser una superficie vertical y debe ser una superficie plana. Cuando detectan esas paredes, también detectan qué tan lejos estás de esa pared, por lo que tienen distancia.

Es casi como si estuvieras en París y ves la Torre Eiffel a lo lejos, ¿verdad? Entonces sabes, «Tengo que estar en algún lugar en el medio.» Sabes dónde estás, pero ver los puntos de referencia en la distancia te guiará.

No puedes mover estos robots a ningún otro lado, ¿verdad?

Esta es una pregunta técnica muy esotérica. Este es el llamado problema del «robot secuestrador». Por ejemplo, su hijo se durmió en su cama y usted lo puso en su cama. Luego, por la mañana, se despiertan y dicen: «¿Dónde estoy? No me muevo de uno a otro solo. «Ese es el problema del secuestro en robótica.

VER: 6 formas en que la revolución de la robótica cambiará el futuro del trabajo (Tecnopedia)

Tenemos que tener otros algoritmos para manejar esta cosa llamada posicionamiento global. Te despiertas, abres los ojos y tenemos un algoritmo para orientarnos. Con un solo escaneo, observa el entorno y luego compara ese entorno con múltiples ubicaciones. Básicamente, estos bots se pueden perder. Pueden tener incertidumbre sobre su posición, pero también tienen mecanismos para abordar esa incertidumbre.

Los robots colaborativos de Carnegie Mellon realizan tareas que incluyen guiar a las personas, transportar elementos de un lugar a otro e ingerir datos de manera exhaustiva navegando por el entorno una y otra vez. Pronto, utilizaremos robots en ambientes interiores para ayudar. Imagina que llegas a un supermercado oa un museo y contratas a un robot para que te acompañe. Puedes decir: «Llévame rápido, me estoy quedando sin tiempo». O, «Espera aquí y haré algo.» Tienes este compañero inteligente, no solo un carrito que empujas. Finalmente dices «adiós, cobots». Puede ser devuelto y disponible para el próximo cliente.

Esto puede ser especialmente importante en los hospitales.

He estado trabajando en ese campo, en servicios. Deje que el robot examine al paciente. O traer tratamientos y medicinas. Solo hay un concepto de un cuerpo que puede ir allí, no solo una cámara estática en una habitación determinada. Creo que es más como pensar en lo que realmente significa la inteligencia artificial, la existencia de seres no humanos. En última instancia, no le vas a preguntar al robot: «Entonces, Manuela, ¿qué hay para ti? ¿Por qué estás aquí?». Simplemente te conviertes en un ser.

Entonces, ¿qué pasa con el diseño de robots? Tu robot con cesta parece muy mecánico. ¿Qué pasa cuando se vuelve más humano?

Mi esposo sigue diciendo: «Oh, deberías hacer que se vea mejor». De alguna manera, di un paso atrás en hacer que se vea mejor, precisamente para que la gente entienda que es solo un refrigerador con ruedas o una computadora portátil con ruedas. No alguien a quien realmente le importe y participe en algún tipo de conversación saludable. Básicamente hace la tarea por ti. He estado investigando mucho sobre la apariencia.

Una cosa que no me gusta de otros robots es que siempre tienen el mismo aspecto. Hemos investigado mucho sobre cómo se puede programar para que se vea. De hecho, el co-bot 3 tiene una columna de luces que puedes hacer que brillen: roja si tiene prisa, azul si está tranquila y tiene mucho tiempo, por lo que la apariencia revela lo que está pasando en el robot.

Para mí, la apariencia no tiene nada que ver con sonreír o no sonreír. Más sobre formas de entender el estado interno de un robot. De lo contrario, es completamente opaco. ¿Qué está haciendo esa cosa?

¿Qué sucede cuando comenzamos a tratar a los robots como humanos?

Quiero que mi robot vaya al supermercado y me compre algo, o me lleve al departamento de física, o camine por el pasillo para ver qué está pasando. Mi preocupación es que cuando compro un robot que no he programado, no sabes qué va a hacer a continuación. ¿A donde van ellos? Los ves moverse y deberían poder decírtelo. Deberían poder mostrarse.

Rendición de cuentas, transparencia. Tienes la capacidad de corregir y decir: «No hagas eso.» Gran parte de mi investigación también se realiza a través del aprendizaje guiado. De hecho, le dices al robot: «No, te estoy diciendo que vayas allí. Me refiero a que lo hagas». En lo que estoy trabajando es en hacer que la gente esté lista para comprar un robot. Compras este robot y se mueve solo. Quieres ir, «ir a la cocina», y el robot va por el jardín. Dices, «Vamos, te dejaré ir a la cocina así.» Ves al robot haciendo algo que tal vez quieras instruir o corregir. Usted podría preguntarse por qué hicieron esto.

¿Cómo puedes corregirlo?

Podemos ver dónde está el robot a través de la aplicación. Hay un horario que determina si hay tiempo para esta tarea, luego le pide al robot que la haga. Aprendizaje de robots. Nunca hará algo sin la confirmación de alguien. Cuando sabe que el café está en la cocina, no tiene que preguntar la próxima vez. entregará.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba