La aplicación Be My Eyes lleva años poniendo en contacto a personas con déficit visual con otras personas que les pueden ayudar, a través de la cámara del móvil. Sin embargo, recientemente, Be My Eyes ha empezado a implementar funciones en su aplicación articuladas a través de modelos de lenguaje capaces de describir imágenes y de responder a preguntas directas acerca de estas.
Javier García, presidente de AMIRES, muestra a través de un tutorial cómo usar estas funciones. Al realizar una foto a través de Be My Eyes, o al subir una foto a la aplicación, tras una breve espera, se generará un texto descriptivo. También podremos interrogar al modelo de lenguaje a tenor de la imagen, realizando solicitudes más precisas o específicas.
Por ejemplo, gracias a la IA Be My Eyes, si fotografiamos la carta de un restaurante, la aplicación podrá decirnos de qué se trata, sus apartados, y algunos de sus platos, pero también podremos ahondar, solicitando que se nos informe acerca de opciones más precisas, como pueden ser secciones concretas de la carta, platos vegetarianos, o las preparaciones más económicas.