Lama Nachman, miembro de Intel y director del laboratorio de computación anticipatoria – Serie de entrevistas

Lama Nachman, es miembro de Intel y director del laboratorio de computación anticipatoria. Lama es mejor conocida por su trabajo con el Prof. Stephen Hawking, ella jugó un papel decisivo en la construcción de un sistema informático de asistencia para ayudar al Prof. Stephen Hawking a comunicarse. Hoy ayuda al roboticista británico Dr. Peter Scott-Morgan a comunicarse. En 2017, el Dr. Peter Scott-Morgan recibió un diagnóstico de enfermedad de la neurona motora (EMN), también conocida como ELA o enfermedad de Lou Gehrig. La MND ataca el cerebro y los nervios y finalmente paraliza todos los músculos, incluso los que permiten respirar y tragar.

El Dr. Peter Scott-Morgan dijo una vez: “Seguiré evolucionando, muriendo como humano, viviendo como cyborg”.

¿Qué te atrajo de la IA?

Siempre me ha atraído la idea de que la tecnología puede ser el gran ecualizador. Cuando se desarrolla de manera responsable, tiene el potencial de nivelar el campo de juego, abordar las desigualdades sociales y ampliar el potencial humano. En ninguna parte es esto más cierto que con la IA. Si bien gran parte de la conversación de la industria sobre la IA y los humanos posiciona la relación entre los dos como adversaria, creo que hay cosas únicas en las que las máquinas y las personas son buenas, por lo que prefiero ver el futuro a través de la lente de la colaboración Human-AI en lugar de competencia humano-IA. Dirijo el Laboratorio de Computación Anticipada en Intel Labs donde, en todos nuestros esfuerzos de investigación, tenemos un enfoque singular en ofrecer innovación informática que escala para un amplio impacto social. Dado lo omnipresente que ya es la IA y su huella cada vez mayor en cada faceta de nuestra vida, veo una gran promesa en la investigación que mi equipo está llevando a cabo para hacer que la IA sea más accesible, más consciente del contexto, más responsable y, en última instancia, traer soluciones tecnológicas a escala para ayudar. personas en el mundo real.

Ha trabajado en estrecha colaboración con el legendario físico Prof. Stephen Hawking para crear un sistema de inteligencia artificial que lo ayudó a comunicarse y con tareas que la mayoría de nosotros consideraríamos rutinarias. ¿Cuáles fueron algunas de estas tareas rutinarias?

Trabajar con el Prof. Stephen Hawking fue el esfuerzo más significativo y desafiante de mi vida. Me alimentó el alma y realmente me hizo comprender cómo la tecnología puede mejorar profundamente la vida de las personas. Vivía con ELA, una enfermedad neurológica degenerativa que, con el tiempo, le quita al paciente la capacidad de realizar las actividades más simples. En 2011, comenzamos a trabajar con él para explorar cómo mejorar el sistema informático de asistencia que le permitía interactuar con el mundo. Además de usar su computadora para hablar con la gente, Stephen usó su computadora como todos lo hacemos, editando documentos, navegando por la web, dando conferencias, leyendo/escribiendo correos electrónicos, etc. La tecnología permitió a Stephen continuar participando activamente e inspirando a los mundo durante años después de que sus habilidades físicas disminuyeron rápidamente. ¡Eso, para mí, es el impacto significativo de la tecnología en la vida de alguien!

¿Cuáles son algunas de las ideas clave que aprendiste al trabajar con el profesor Stephen Hawking?

La pantalla de nuestra computadora es realmente nuestra puerta de entrada al mundo. Si las personas pueden controlar su PC, pueden controlar todos los aspectos de sus vidas (consumir contenido, acceder al mundo digital, controlar su entorno físico, navegar en su silla de ruedas, etc.). Para las personas con discapacidades que aún pueden hablar, los avances en el reconocimiento de voz les permiten tener un control total de sus dispositivos (y en gran medida, de su entorno físico). Sin embargo, aquellos que no pueden hablar y no pueden moverse están realmente perjudicados por no poder ejercer mucha independencia. Lo que me enseñó la experiencia con el profesor Hawking es que las plataformas de tecnología de asistencia deben adaptarse a las necesidades específicas del usuario. Por ejemplo, no podemos simplemente suponer que una sola solución funcionará para las personas con ELA, porque la enfermedad afecta las diferentes habilidades de los pacientes. Por lo tanto, necesitamos tecnologías que puedan configurarse y adaptarse fácilmente a las necesidades del individuo. Es por eso que construimos ACAT (Assistive Context Aware Toolkit), una plataforma de software modular de código abierto que puede permitir a los desarrolladores innovar y desarrollar diferentes capacidades sobre ella.

También aprendí que es importante comprender el umbral de comodidad de cada usuario en cuanto a ceder el control a cambio de una mayor eficiencia (esto no se limita a las personas con discapacidades). Por ejemplo, la IA puede ser capaz de quitarle más control al usuario para hacer una tarea más rápido o de manera más eficiente, pero cada usuario tiene un nivel diferente de aversión al riesgo. Algunos están dispuestos a ceder más control, mientras que otros usuarios quieren mantener más. Comprender esos umbrales y hasta dónde están dispuestas a llegar las personas tiene un gran impacto en cómo se pueden diseñar estos sistemas. Necesitamos repensar el diseño del sistema en términos del nivel de comodidad del usuario en lugar de solo medidas objetivas de eficiencia y precisión.

Más recientemente, ha estado trabajando con un famoso científico del Reino Unido, Peter Scott Morgan, que padece una enfermedad de las neuronas motoras y tiene el objetivo de convertirse en el primer cyborg completo del mundo. ¿Cuáles son algunas de las metas ambiciosas que tiene Peter?

Uno de los problemas de la CAA (comunicación asistida y aumentada) es la «brecha de silencio». Muchas personas con ELA (incluido Peter) usan el control de la mirada para elegir letras/palabras en la pantalla para hablar con los demás. Esto da como resultado un largo silencio después de que alguien termina su oración mientras la persona mira su computadora y comienza a formular sus letras y palabras para responder. Peter quería reducir esta brecha de silencio tanto como fuera posible para devolver la espontaneidad verbal a la comunicación. También quiere preservar su voz y personalidad y utilizar un sistema de texto a voz que exprese su estilo único de comunicación (por ejemplo, sus bromas, su sarcasmo ingenioso, sus emociones).

El roboticista británico Dr. Peter Scott-Morgan, quien tiene una enfermedad de la neurona motora, comenzó en 2019 a someterse a una serie de operaciones para prolongar su vida utilizando tecnología. (Crédito: Producciones de Cardiff)

¿Podría hablar sobre algunas de las tecnologías que se utilizan actualmente para ayudar al Dr. Peter Scott-Morgan?

Peter está usando ACAT (Assistive Context Aware Toolkit), la plataforma que construimos durante nuestro trabajo con el Dr. Hawking y luego lanzamos a código abierto. A diferencia del Dr. Hawking, que usó los músculos de su mejilla como un «disparador de entrada» para controlar las letras en su pantalla, Peter usa el control de la mirada (una capacidad que agregamos al ACAT existente) para hablar y controlar su PC, que interactúa con una solución Text-to-Speech (TTS) de una empresa llamada CereProc que fue personalizada para él y le permite expresar diferentes emociones/énfasis. El sistema también controla un avatar personalizado para él.

Actualmente estamos trabajando en un sistema de generación de respuestas para ACAT que puede permitir que Peter interactúe con el sistema a un nivel superior utilizando capacidades de IA. Este sistema escuchará las conversaciones de Peter a lo largo del tiempo y sugerirá respuestas para que Peter elija en la pantalla. El objetivo es que, con el tiempo, el sistema de IA aprenda de los datos de Peter y le permita «empujar» al sistema para que le brinde las mejores respuestas usando solo algunas palabras clave (similar a cómo funcionan las búsquedas en la web hoy en día). Nuestro objetivo con el sistema de generación de respuestas es reducir la brecha de silencio en la comunicación mencionada anteriormente y capacitar a Peter y a los futuros usuarios de ACAT para comunicarse a un ritmo que se sienta más «natural».

También ha hablado sobre la importancia de la transparencia en la IA, ¿qué tan grande es este problema?

Es un gran problema, especialmente cuando se implementa en sistemas de toma de decisiones o sistemas colaborativos humanos/IA. Por ejemplo, en el caso del sistema de asistencia de Peter, necesitamos entender qué está causando que el sistema haga estas recomendaciones y cómo impactar el aprendizaje de este sistema para expresar sus ideas con mayor precisión.

En el contexto más amplio de los sistemas de toma de decisiones, ya sea ayudando con el diagnóstico basado en imágenes médicas o haciendo recomendaciones sobre la concesión de préstamos, los sistemas de IA deben proporcionar información interpretable por humanos sobre cómo llegaron a las decisiones, qué atributos o características tuvieron un mayor impacto en eso. decisión, qué confianza tiene el sistema en la inferencia realizada, etc. Esto aumenta la confianza en los sistemas de IA y permite una mejor colaboración entre humanos e IA en escenarios mixtos de toma de decisiones.

El sesgo de la IA específicamente cuando se trata de racismo y sexismo es un gran problema, pero ¿cómo identificas otros tipos de sesgo cuando no tienes idea de qué sesgo estás buscando?

Es un problema muy difícil y que no se puede resolver solo con tecnología. Necesitamos aportar más diversidad al desarrollo de los sistemas de IA (racial, de género, cultural, capacidad física, etc.). Esta es claramente una gran brecha en la población que construye estos sistemas de IA en la actualidad. Además, es fundamental contar con equipos multidisciplinarios involucrados en la definición y el desarrollo de estos sistemas, que traigan a la mesa las ciencias sociales, la filosofía, la psicología, la ética y las políticas (no solo las ciencias de la computación) y participen en el proceso de investigación en el contexto de los proyectos y problemas específicos.

Has hablado antes sobre el uso de IA para amplificar el potencial humano. ¿Cuáles son algunas áreas que muestran la mayor promesa para esta amplificación del potencial humano?

Un área obvia es permitir que las personas con discapacidad vivan de manera más independiente, se comuniquen con sus seres queridos y continúen creando y contribuyendo a la sociedad. Veo un gran potencial en la educación, en comprender el compromiso de los estudiantes y personalizar la experiencia de aprendizaje según las necesidades y capacidades individuales del estudiante para mejorar el compromiso, empoderar a los maestros con este conocimiento y mejorar los resultados del aprendizaje. La inequidad en la educación actual es muy profunda y hay un lugar para que la IA ayude a reducir parte de esta inequidad si lo hacemos bien. Hay infinitas oportunidades para que la IA aporte mucho valor mediante la creación de sistemas colaborativos humanos/IA en tantos sectores (salud, fabricación, etc.) porque lo que los humanos y la IA aportan son muy complementarios. Para que esto suceda, necesitamos innovación en la intersección de las ciencias sociales, la HCI y la IA. La percepción multimodal robusta, la conciencia del contexto, el aprendizaje a partir de datos limitados, la HCI situada físicamente y la interpretabilidad son algunos de los desafíos clave en los que debemos centrarnos para hacer realidad esta visión.

¿También ha hablado sobre la importancia del reconocimiento de emociones para el futuro de la IA? ¿Por qué la industria de la IA debería centrarse más en esta área de investigación?

El reconocimiento de emociones es una capacidad clave de los sistemas humanos/IA por múltiples razones. Un aspecto es que la emoción humana ofrece un contexto humano clave para que cualquier sistema proactivo lo entienda antes de que pueda actuar.

Más importante aún, estos tipos de sistemas deben seguir aprendiendo en la naturaleza y adaptarse en función de las interacciones con los usuarios, y aunque la retroalimentación directa es una señal clave para el aprendizaje, las señales indirectas son muy importantes y son gratuitas (menos trabajo para el usuario ). Por ejemplo, un asistente digital puede aprender mucho de la frustración en la voz de un usuario y usar eso como una señal de retroalimentación para saber qué hacer en el futuro, en lugar de pedirle retroalimentación al usuario cada vez. Esta información se puede utilizar para que los sistemas de inteligencia artificial de aprendizaje activo continúen mejorando con el tiempo.

¿Hay algo más que le gustaría compartir sobre lo que está trabajando en el Laboratorio de Cómputo Anticipatorio u otros temas que hemos discutido?

Cuando construimos sistemas de asistencia, realmente necesitamos pensar en cómo construir estos sistemas de manera responsable y cómo permitir que las personas entiendan qué información se recopila y cómo controlar estos sistemas de manera práctica. Como investigadores de IA, a menudo nos fascinan los datos y queremos tener la mayor cantidad posible de datos para mejorar estos sistemas; sin embargo, existe una compensación entre el tipo y la cantidad de datos que queremos y la privacidad del usuario. Realmente necesitamos limitar los datos que recopilamos a lo que es absolutamente necesario para realizar la tarea de inferencia, hacer que los usuarios sepan exactamente qué datos estamos recopilando y permitirles ajustar esta compensación de manera significativa y utilizable.

Gracias por la fantástica entrevista, los lectores que deseen obtener más información sobre este proyecto deben leer el artículo. Lama Nachman y Peter Scott-Morgan de Intel: dos científicos, uno un ‘cyborg humano’‘.

El equipo del laboratorio de computación anticipada de Intel que desarrolló el kit de herramientas de reconocimiento del contexto de asistencia incluye (desde la izquierda) a Alex Nguyen, Sangita Sharma, Max Pinaroc, Sai Prasad, Lama Nachman y Pete Denman. No aparecen Bruna Girvent, Saurav Sahay y Shachi Kumar. (Crédito: Lama Nachman)

Deja un comentario