Noelle Russell, fondatrice et directrice de l'IA pour l'AI Leadership Institute, est une innovatrice et une praticienne de premier plan dans le domaine des technologies, dont la compréhension approfondie de l'intersection entre l'intelligence artificielle et les besoins humains a impressionné les membres du public lors de sa présentation, L'avenir de l'IA dans les expositions et les événements, livré à la Conférence de prédiction du CEIR 2024 qui s'est tenue les 12 et 13 septembre.
S'appuyant sur sa vaste expérience chez les géants de la technologie Amazon et Microsoft, Russell a offert des informations précieuses sur les défis et les opportunités du développement de l'IA, tout en soulignant l'importance cruciale de créer des systèmes d'IA inclusifs et responsables.
Le côté humain du développement de l’IA
Russell a commencé sa session par une démonstration percutante des capacités de l'IA à travers une introduction de deep fake qui a ouvert la voie à une discussion sur les progrès rapides de l'IA. Elle a partagé sa motivation personnelle pour entrer dans le domaine de l'IA, motivée par le syndrome de Down de son fils, et son désir de rendre la technologie plus accessible. Cette approche centrée sur l'humain a influencé son travail, du développement d'Alexa chez Amazon à la formation de grands modèles de langage chez Microsoft.
Créer des modèles d'IA inclusifs
En évoquant le développement des systèmes d’IA, Russell a souligné le rôle crucial de la collecte intentionnelle de données et de la prise de décision précoce dans l’élaboration des modèles d’IA. Elle a souligné que la lutte contre les préjugés et l’inclusion doivent commencer dès les premières étapes du développement. À travers diverses anecdotes tirées de sa carrière, elle a illustré comment l’intervention humaine et l’amélioration continue sont essentielles pour créer des systèmes d’IA qui servent véritablement tous les utilisateurs.
Considérations éthiques et défis de sécurité
Russell a donné des exemples convaincants de vulnérabilités de l’IA, notamment des cas où les systèmes ont été manipulés par des approches créatives. Elle a raconté comment un journaliste s’est servi d’une histoire personnelle pour extraire des informations sensibles d’un modèle d’IA, soulignant l’importance de mesures de sécurité robustes. Le concept de « red teaming » (le piratage éthique pour tester les systèmes d’IA) a été présenté comme une pratique essentielle pour identifier et traiter les vulnérabilités potentielles avant qu’elles ne puissent être exploitées. La solution, a-t-elle souligné, réside dans l’établissement de garde-fous clairs et dans le maintien d’une pensée claire dans le développement des systèmes d’IA.
Mise en œuvre de l'IA avec des valeurs fondamentales
En ce qui concerne la mise en œuvre de l’IA au sein des organisations, Russell a fortement souligné le rôle fondamental des valeurs fondamentales de l’entreprise. Elle a cité des exemples où même des géants de la technologie comme Microsoft et Amazon ont connu des échecs dans leurs projets d’IA lorsqu’ils se sont éloignés de leurs valeurs fondamentales. Selon elle, la clé d’une mise en œuvre réussie réside dans la compréhension et la gestion des risques spécifiques à chaque organisation plutôt que dans l’application d’une solution universelle.
Pour démontrer la mise en œuvre pratique, Russell a expliqué comment les organisations peuvent créer des systèmes d'IA efficaces à l'aide d'outils simples comme des tableaux blancs et des versions d'entreprise de ChatGPT, prouvant qu'une mise en œuvre réussie de l'IA ne nécessite pas toujours des ressources techniques complexes - au contraire, elle nécessite une réflexion claire et un fort alignement avec les principes organisationnels.
Impact environnemental et défis futurs
Russell a évoqué les préoccupations croissantes concernant l'impact environnemental de l'IA, notamment en ce qui concerne la consommation d'énergie des grands modèles. Elle a expliqué comment l'IA peut faire partie de la solution en optimisant la consommation d'énergie et en soutenant des pratiques durables. En se tournant vers l'avenir, elle a évoqué l'émergence de l'IA quantique et ses implications potentielles pour les méthodes de cryptage actuelles, soulignant la nécessité de poursuivre les investissements dans les mesures de cybersécurité.
La voie à suivre
Dans son discours de clôture, Russell a appelé à une approche équilibrée du développement de l’IA qui accorde la priorité aux progrès technologiques et aux besoins humains. Elle a souligné l’importance de poser des questions difficiles et de maintenir une surveillance humaine dans les systèmes d’IA. Les organisations doivent rester adaptables et informées des développements de l’IA tout en veillant à ce que leurs stratégies de mise en œuvre soient conformes aux valeurs fondamentales et privilégient les pratiques responsables. Elle a souligné que les organisations doivent guider leur parcours en matière d’IA par un développement responsable, des considérations de sécurité et une application stratégique de l’élément humain.