Noelle Russell, fundadora y directora de inteligencia artificial del AI Leadership Institute, es una innovadora y profesional tecnológica líder cuyo profundo conocimiento de cómo la inteligencia artificial se relaciona con las necesidades humanas cautivó a los miembros de la audiencia durante su presentación. El futuro de la IA en exposiciones y eventos, entregado en el Conferencia de predicciones CEIR 2024 Se celebró los días 12 y 13 de septiembre.
Basándose en su amplia experiencia en los gigantes tecnológicos Amazon y Microsoft, Russell ofreció información valiosa sobre los desafíos y oportunidades en el desarrollo de la IA, al tiempo que enfatizó la importancia crítica de construir sistemas de IA inclusivos y responsables.
El lado humano del desarrollo de la IA
Russell comenzó su sesión con una poderosa demostración de las capacidades de la IA a través de una introducción deep fake que preparó el terreno para una discusión sobre el rápido avance de la IA. Compartió su motivación personal para ingresar al campo de la IA, impulsada por el síndrome de Down de su hijo, y su deseo de hacer que la tecnología sea más accesible. Este enfoque centrado en el ser humano ha influido en su trabajo, desde el desarrollo de Alexa en Amazon hasta el entrenamiento de grandes modelos de lenguaje en Microsoft.
Creación de modelos de IA inclusivos
Al hablar sobre el desarrollo de los sistemas de IA, Russell destacó el papel crucial de la recopilación intencional de datos y la toma de decisiones tempranas en la configuración de los modelos de IA. Subrayó que abordar los sesgos y garantizar la inclusión debe comenzar en las primeras etapas del desarrollo. A través de varias anécdotas de su carrera, ilustró cómo la intervención humana y la mejora continua son esenciales para crear sistemas de IA que realmente sirvan a todos los usuarios.
Consideraciones éticas y desafíos de seguridad
Russell compartió ejemplos convincentes de vulnerabilidades de la IA, incluidos casos en los que los sistemas fueron manipulados mediante enfoques creativos. Contó cómo un periodista utilizó una historia personal para extraer información confidencial de un modelo de IA, destacando la importancia de contar con medidas de seguridad sólidas. El concepto de “red teaming” (piratería ética para probar sistemas de IA) se presentó como una práctica crucial para identificar y abordar vulnerabilidades potenciales antes de que puedan ser explotadas. La solución, enfatizó, radica en establecer barreras de protección claras y mantener la claridad de pensamiento en el desarrollo de sistemas de IA.
Implementando IA con valores fundamentales
En lo que respecta a la implementación de la IA en las organizaciones, Russell hizo hincapié en el papel fundamental de los valores centrales de la empresa. Señaló ejemplos en los que incluso gigantes tecnológicos como Microsoft y Amazon se enfrentaron a fracasos en proyectos de IA cuando se desviaron de sus valores centrales. La clave para una implementación exitosa, sugirió, radica en comprender y abordar los riesgos específicos de cada organización en lugar de aplicar una solución única para todos.
Para demostrar la implementación práctica, Russell compartió cómo las organizaciones pueden construir sistemas de IA efectivos utilizando herramientas simples como pizarrones y versiones empresariales de ChatGPT, demostrando que la implementación exitosa de IA no siempre requiere recursos técnicos complejos; en cambio, requiere un pensamiento claro y una fuerte alineación con los principios organizacionales.
Impacto ambiental y desafíos futuros
Russell abordó las crecientes preocupaciones sobre el impacto ambiental de la IA, en particular en lo que respecta al consumo de energía de los modelos de gran tamaño. Habló de cómo la IA puede ser parte de la solución al optimizar el uso de la energía y respaldar prácticas sostenibles. De cara al futuro, se refirió al surgimiento de la IA cuántica y sus posibles implicaciones para los métodos de cifrado actuales, haciendo hincapié en la necesidad de seguir invirtiendo en medidas de ciberseguridad.
El camino a seguir
En sus comentarios finales, Russell pidió un enfoque equilibrado para el desarrollo de la IA que priorice tanto el avance tecnológico como las necesidades humanas. Subrayó la importancia de plantear preguntas difíciles y mantener la supervisión humana en los sistemas de IA. Las organizaciones deben seguir adaptándose e informándose sobre los avances de la IA, al tiempo que garantizan que sus estrategias de implementación se alinean con los valores fundamentales y priorizan las prácticas responsables. Hizo hincapié en que las organizaciones deben guiar su recorrido hacia la IA a través del desarrollo responsable, las consideraciones de seguridad y la aplicación estratégica del elemento humano.