Atelier ADOR-IA

Date limite:

Dans le cadre du projet IAR3, IVADO, l’Obvia et le SEMLA unissent leurs forces et leurs réseaux respectifs pour coorganiser la première édition d’ADOR-IA, le tout premier Atelier visant le Développement et l’Opérationnalisation responsable de l’IA, qui aura lieu le 22 août 2024 en ligne et le 29 août et 5 septembre en présentiel à Montréal.

Vous faites partie de la communauté étudiante et vous étudiez dans les domaines d’études suivants ?

  • IA et MLOps
  • Sciences sociales (droit, éthique, etc.)
  • Environnement et développement durable

Venez relever les défis ADOR-IA, profiter du soutien des entreprises participantes ainsi que du mentorat offert par des expertes et experts! 

La date limite pour soumettre votre candidature est le 7 août 2024. 

POSTULER

À quoi s’attendre?

  • Formation d’une journée sur les pratiques et les outils pour un déploiement responsable de l’IA
  • 6 défis d’intégration de Grand Modèle de Langage (GML, ou Large Language Model, LLM) fournis par des entreprises
  • Équipes de 3 personnes étudiantes par défi minimum, accompagnée de l’entreprise
  • Possibilité de poursuivre sur un projet supervisé ou un stage Mitacs
  • Atelier bilingue – français et anglais

Exemples de problématiques

Biais algorithmiques : Une organisation pourrait soumettre un problème afin de s’assurer que son modèle d’IA ne génère pas des biais algorithmiques.

Transparence et explicabilité : Une organisation pourrait soumettre un problème afin de faire en sorte que les décisions prises par son système d’IA soient moins opaques pour les utilisateurs et les utilisatrices et ainsi le rendre plus transparent.

Protection de la vie privée et des données : L’utilisation de grandes quantités de données pour entraîner des modèles d’IA soulève des préoccupations concernant la protection de la vie privée et la sécurité des données personnelles.

Responsabilité légale et éthique : En cas d’erreurs ou de préjudices causés par des systèmes d’IA, il peut être difficile de déterminer qui est responsable.

Équité et justice sociale : L’IA peut potentiellement aggraver les inégalités existantes en favorisant certains groupes ou en excluant d’autres.

Sécurité et fiabilité : Les systèmes d’IA peuvent être vulnérables aux attaques malveillantes, ce qui pose des risques pour la sécurité et la fiabilité des applications d’IA.

Consommation énergétique accrue : Les modèles d’IA nécessitent souvent de vastes quantités de données et des calculs intensifs, ce qui peut entraîner une augmentation de la consommation d’énergie.

Ces problématiques nécessitent une approche proactive et multidisciplinaire impliquant par exemple des spécialistes en IA, en sciences sociales (éthique, droit, etc.) et en environnement pour garantir que l’IA est utilisée de manière responsable et bénéfique pour la société.

Programme préliminaire

22 août (en ligne)

  • AM – Plénière d’ouverture: Présentation des problèmes des différentes organisations
  • PM – Formation sur les outils et meilleures pratiques en IA responsable

29 août (en présentiel HEC centre-ville)

  • AM et PM : Travail en équipe sur les problèmes en IA responsable acceptés

5 septembre (en présentiel au HEC centre-ville)

  • AM : Préparation des présentations
  • PM : Plénière et cocktail de clôture

Ne manquez rien de l’actualité de l’Obvia!

Recevez les nouvelles de la communauté, les événements à venir et les opportunités liées à la recherche.