Conférence IA en Mission Sociale – Édition 2018

Édition 2018

25 - 26 JANVIER, 2018, MONTRÉAL


Voici quelques-uns de nos conférenciers keynotes.

Yoshua Bengio

Yoshua Bengio

Professeur, Département d’informatique et de recherche opérationnelle, Université de Montréal, Directeur du MILA et Co-Fondateur Element AI

Kathryn Hume

Kathryn Hume

Vice-présidente, Produits et stratégie chez

Karim Benyekhlef

Karim Benyekhlef

Professeur, Faculté de droit de l’Université de Montréal, directeur du Laboratoire de cyberjustice


Carole Piovesan

Carole Piovesan

Avocate, IA et le droit, McCarthy Tétrault

Jean-Martin Aussant

Jean-Martin Aussant

Directeur général, Chantiers de l’économie sociale

Eleonore Fournier-Tombs

Eleonore Fournier-Tombs

Directrice des Finances,
Aifred Health

Betty Ferreira

Founder and Executive Director,

Tina Groves

Directrice, Data for Good. Stratégie et analyse de données, IBM 

Gabrielle Paris Gagnon

Avocate, Propulsio

Catherine Légaré

Catherine Légaré

Fondatrice et Directrice, Academos

Jonatan Bouchard

Jonatan Bouchard

Directeur Analyse de Données et Stratégie, Sunlife Financière.

Roberta Voulon

Fondatrice et Présidente, Incubateur de talent, Les Pitonneux

Jean-Noé Landry

Entrepreneur social, Directeur exécutif, Nord Ouvert

Leslie L. Cheung

Leslie L. Cheung

Directrice du développement des partenariats, Powered by Data

Karina Kasserwan

Avocate, Droit autochtone, Kesserwan Arteau

Mehdi Merai

CEO Dataperformers

Patrick Dubé

Directeur, Maison de l’innovation sociale

Marc-André Roberge

Entrepreneur social, Nectar

Christiane Saad

Co-Directrice, Faculté de Droit, Université d’Ottawa

Kai-Hsin Hung

Collaborateur, ITC-ILO

Maxime Carbonneau

Co-Créateur, Dialogues avec Siri

Laurence Dauphinais

Comédienne et co-créatrice, Dialogues avec Siri

Pitch mission sociale

Start ups et organismes qui utilisent l’intelligence artificielle au soutien de leur mission sociale

Logo AiFred
Logo Ubenwa
Logo Laboratoire Domus
Logo Quotient Social
Logo Mr Young
Logo Myelin
Logo Akademos
Logo Botler Ai
Logo NordOuvert
Logo Lincs
[section_inner] [/section_inner]

Synthèse des recommandations

Partie 1 : Recommandations en matière de gouvernance de l'IA et politiques publiques

Traduction vers le français en cours

AI can be used for social good, but citizens need to be part of the dialogue around which values we want embedded into AI policies and systems.

Artificial intelligence (AI) has the potential to be human rights’ best advocate and its worst enemy. Either it can help us reach the UN’s Sustainable Development Goals (SDGs) or, to quote internationally renowned AI scientist Yoshua Bengio, it can “increase discrepancies between the rich and the poor and be a threat to democracy.” Fears of job loss and psychological manipulation are real and require a united front.

To help us better understand and shape the social impacts of AI for the greater good, the inaugural conference AI on a Social Mission was held last month in Montreal. “AI is both a hope and a danger,” warned Bengio, who was the keynote speaker at the conference.

Over the course of the two days, inspiring start-ups convened to share how they use AI to save lives, make information on mental health more accessible, support personalized education and more. Expert panels delved into issues that included open data governance, AI’s impact on legal frameworks and the accessibility and acceptability of these new technologies. Multidisciplinary discussion groups assessed the social impacts of AI, and participants offered concrete suggestions on how to implement AI in a way that reflects humanitarian values.

The world is facing a historical shift. The concentration of researchers and AI talent in Canada positions us strategically as a country with the potential to become a world leader in artificial intelligence. To achieve that, AI must be developed ethically and responsibly to ensure its equitable and accessible implementation for everyone. We need to get AI out of the academic milieu and reach out to the community, facilitate a collective co-creation of our future and forge a united front against the risks posed by AI.

Combining AI and social work, I wanted to reach citizens through the community organizations and non-profits representing them. The event was sold out, with approximately 200 participants, including 50 nonprofits as well as numerous AI, data science, ethics and social innovation researchers.

Here are some of the recommendations that emerged from the gathering.

Oversight body

The algorithms innate to the machine-learning and deep-learning programs used in various applications and platforms are very complex. As a result, there’s a lot of support for an independent public body to oversee AI implementation, whether it’s an ombudsman, watchdog, auditing bureau or some kind of financial market authority. Independent experts are needed to audit systems that might one day be responsible for affecting citizens’ access to, or denial of, certain public services or privileges. This independent body would hear citizens’ complaints, analyze recurring problems and make recommendations as we gradually adapt to the implementation and use of AI in our society.

Countries around the world are racing against each other and investing heavily in AI research and application. Will leaders use AI to support social, economic and cultural rights or, inadvertently, to fuel further inequalities? Questions we can’t even think of today will arise tomorrow. A flexible and transparent body is necessary to protect our values as a society.

Certification standard

Multidisciplinary discussion groups at the conference pushed strongly for an Ethical AI” certification as a tool to ensure its principled implementation. Many referred to an approach similar to the International Organization for Standardization’s (ISO) certification that could be applied to any application, tool or platform using AI. The certification would have to be well funded and structured, and evaluated quickly, given the AI race in economic and military circles. Some categories, in fact, could be fast-tracked based on public good and safety considerations.


The third loud and resounding consensus was that data must be accessible to, and useable by, the public and researchers. Suggestions were made about data being entrusted to a public body to ensure that it’s accessible and of good quality, in an effort to improve prosperity for all citizens. If data is the new pillar of democracy, how can citizens possibly harness the power of AI if they can’t use their own data?

Critically important recommendations were made on providing non-profits with better data governance mechanisms. Nonprofits serving our most vulnerable citizens must be empowered with data analysis and data science tools. This funding could allow them to build so-called “data co-ops” per sector and optimize their reach and social return on investment (SROI). A data co-op is a rapidly growing platform that allows the flow of data among communities in the cooperative social economy. The data co-op not only serves these communities, it is also owned by them.

Legal framework

There is a pressing need for our legal frameworks to be reviewed and adapted to our rapidly changing needs. Whether in the context of research, policy-making or product development, innovating with a new technology raises unanticipated questions. Leaders are being called upon to ask themselves whether their clients or constituents agree on what constitutes informed consent or whether they feel violated when data are shared. Can governments impose automatic consent for data-sharing based on the argument that it will benefit public health, for example? Can we and how should we redistribute the prosperity AI is promising to generate?

These questions revolve around privacy, consent, and redistribution of wealth, and they are fundamental to the governing of our society. Al require us to revisit our values as a society as we embed then into our policies, laws and regulations on AI. What are the values we want to protect in a diverse, multilingual and multicultural society – democracy, equality, diversity, safety, sustainability?

Privacy and human rights

Some of the other areas that must be regulated include: citizens’ control over their data; the right to privacy; protection against psychological manipulation and the right to explanation and appeal when prescriptive and predictive algorithms are used and human rights are at stake.


Our laws and policies must safeguard our values, and so the use of fiscal and financial incentives was also recommended. Two of the major suggestions were incentives to collaborate across sectors using tax breaks, much like a research and development tax, and the taxation of profitable uses of data to fund public services and AI research and development that serve the public good.

Social Impact Index

On a similar note, participants at the conference supported the concept of a Social Impact Index (SII). A SII would assess the value a company contributes to society, as a guide for investors and public funders. Organizations would be supported in developing SROIs and incorporating them into their return on investment reports. Governments could evaluate, through the use of algorithms, whether a company rates highly on an SII, and whether it should receive public funding.

The complexity of artificial intelligence is intimidating. Its potential impact can fuel distress and fear. To feel reassured, citizens need to understand how AI works and how it can benefit them. Civil society must be given the means not only to increase digital literacy, but also to allow an open, inclusive public dialogue on which values we want embedded into our policies, into our legal frameworks and eventually into autonomous AI systems.

Events like the AI on a Social Mission conference allow citizens to be heard through the organizations that represent them, facilitate learning and knowledge transfer, and make it possible for all to share the excitement of AI’s revolutionary potential. Events like this bring together experts of different disciplines to collaborate and share their know-how on the beneficial use of AI for humanity.

Discussing AI’s impact on society is crucial as we rethink the legal frameworks that will implement our societal values and reach the goals we set together. Those at the Montreal conference avidly recommended further opportunities for dialogue.

Partie 2: Le rôle de l'éducation dans l'implantation éthique de l'IA

Translation to English coming soon

Lors de la conférence Intelligence Artificielle en Mission Sociale, tenue les 25 et 26 janvier derniers, de petits groupes multidisciplinaires se sont penchés sur l’implantation éthique de l’intelligence artificielle (IA) au sein de notre société. Chaque groupe de discussion était facilité par un membre de l’équipe de IA en mission sociale qui a soigneusement récolté les recommandations des participants dont voici un sommaire.

Portrait des participants

Tout d’abord, il est important de souligner que sur 185 inscriptions, 52 provenaient d’organismes à but non-lucratif, permettant une représentation importante de la société civile. Cet objectif a été atteint avec succès grâce à un prix d’entrée accessible adapté aux budgets limités des organismes communautaires, une campagne d’information par courrier électronique, des appels directs et du bouche à oreille.

Les organisateurs ont conçu les groupes de discussion de façon à assurer une représentation multidisciplinaire et multisectorielle. Les participants aux groupes de discussion incluaient notamment des chercheurs et des praticiens en politiques publiques, en innovation sociale, en droit, en éthique, en travail social, en éducation, en apprentissage automatisée et profond, en sciences des données, des entrepreneurs, des gestionnaires et des étudiants dans divers domaines.

Les trois questions posées aux participants sont les suivantes:

1) Super-héros ou robots-tueurs : si vous aviez tous les moyens nécessaires, pour quels types de projets utiliseriez-vous l’intelligence artificielle?

2) Bâtir des ponts : comment améliorer la collaboration ?

3) Concrètement, sur 0-5 ans, comment atteindre une implantation éthique et équitable de l’IA?

Les résultats ont été compilés en trois rapports sommaires.

  • Le premier rapport porte sur les recommandations en gouvernance et politiques publiques publié par l’Institut de recherche en politiques publiques.
  • Ce document est le second rapport et il porte sur le rôle de l’éducation dans l’implantation éthique et équitable de l’intelligence artificielle au sein de notre société.
  • Le troisième rapport, qui sera publié sous peu, portera sur quelques solutions technologiques au développement éthique de l’intelligence artificielle.

Synthèse des recommandations 

Outiller dès l’enfance et tout au cours de la vie adulte

  • Une insatisfaction générale vis à vis du statu quo en éducation en milieu scolaire est sous-entendue et la question de l’enseignement dans les écoles et du cheminement scolaire dénote un besoin d’amélioration.
  • On se questionne notamment sur les approches optimales visant à favoriser une éducation plus adaptée aux différentes formes d’intelligence et styles d’apprentissage des enfants.
  • L’importance d’enseigner les habiletés sociales nécessaires au travail d’équipe pluridisciplinaire dès le primaire de même que tout au long de la vie de travail est soulignée à plusieurs reprises.
  • On recommande de favoriser un esprit critique et la créativité dès la petite enfance.
  • Tant pour les enfants que les adultes, il est suggéré de considérer l’apprentissage autodidacte et alternatif de même que la reconnaissance de compétences autre que les méthodes traditionnelles.
  • On recommande un apprentissage via des stages en milieu de travail dans un environnement pluridisciplinaire afin de favoriser un partage de connaissances.
  • Tant au niveau des nouveaux arrivants que des personnes qui seront affectées par les changements technologiques, on aborde la question de la reconnaissance des acquis et des compétences. On pointe vers des outils technologiques qui pourraient permettre une reconnaissance plus efficace des compétences et de mettre les individus affectés en contact avec de nouveaux employeurs. Il est suggéré de travailler en collaboration avec les organismes sans but lucratif qui œuvrent déjà dans le secteur de l’employabilité car ils possèdent les liens avec la communauté et l’expertise requise.
  • L’obligation de suivre des cours d’éthique pour tous les étudiants, chercheurs et développeurs en sciences des données, en apprentissage profond et automatisé est fortement suggérée. Certains recommandent de plus l’adoption d’un code d’éthique comme c’est le cas, par exemple, pour les avocats, médecins et travailleurs sociaux.

Soutenir un dialogue intersectoriel 

  • Tant au niveau académique qu’au sein des entreprises et de la population générale, un changement de culture doit s’amorcer pour prendre un virage technologique qui bénéficie à tous. Non seulement est-il essentiel de consacrer des ressources importantes à la compréhension de la logique algorithmique, des enjeux entourant les données et de la numératie technologique, mais il est également suggéré de mettre en place des mécanismes de dialogue entre le citoyen, le secteur privé et le gouvernement. Ces mécanismes servent à la fois comme des outils d’éducation populaire et de consultation citoyenne mais aussi de dialogue entre les parties prenantes au virage technologique.
  • L’éducation populaire, les consultations citoyennes et le dialogue citoyen-gouvernance-entreprises devrait être diversifiée, inclusive et proactive afin de rejoindre toute la population via, par exemple, les arts, des outils technologiques et les médias.
  • La numératie technologique et algorithmique est plus que jamais vu par plusieurs intervenants comme une priorité. On identifie également le besoin de simplification et de vulgarisation du langage entourant l’intelligence artificielle afin d’encourager la participation de tous aux consultations sur l’implantation de l’IA.
  • Il ressort un besoin de créer un langage moins alarmiste autour de l’IA afin de favoriser une plus grande participation de tous.
  • Un nombre considérable de participants ont conclu sur la nécessité de favoriser des ponts entre les secteurs technologiques, privés, académiques et les organismes de la société civile.
  • L’importance de l’approche pluridisciplinaire est valorisée, contrairement à l’approche par silo de compétences. Des équipes multidisciplinaires, inclusives de la diversité, mettant une forte importance sur l’éthique sont l’équipe de travail de l’avenir, qui doit être mise en œuvre et promue dès maintenant.
  • À cause de son caractère éducatif, consultatif et multidisciplinaire, des événements tel que la conférence IA en Mission Sociale devraient être soutenus et facilités par les différents secteurs.

Assurer l’accès aux ressources

  • L’implantation de l’IA passe par une meilleure gestion des données et, par conséquent, plusieurs participants soulèvent la nécessité des former les citoyens et les organismes qui œuvrent auprès de personnes plus vulnérables et isolées sur différentes questions déterminantes relatives aux données. À cet effet, il est suggéré d’offrir des formations sur les données pour les citoyens et les organismes sans but lucratif qui les desservent.
  • La réalité du financement des petits organismes sans but lucratif fait en sorte qu’ils n’ont souvent pas accès à un développeur web, et encore moins à un spécialiste en gestion des données. Sans soutien concret en gestion des données, la voix de tous ne sera pas entendue au cours de transition vers l’économie 4.0 et c’est tout un secteur qui sera laissé pour compte. Pour concevoir une société où l’IA est au service des citoyens et éviter un accroissement des inégalités sociales, nous devons favoriser un plus grand accès à la science de données et l’intelligence artificielle pour les organismes sans but lucratifs qui œuvrent au service des personnes plus isolées et vulnérables.
  • Une des grandes craintes des participants porte sur les éventuelles pertes d’emplois qui pourraient être causées par l’automatisation de certaines tâches. On se questionne avec inquiétude sur où seront redirigé les emplois robotisés, vers quel secteur et comment. On suggère de faire rapidement une réflexion sur le sens du travail en regard des aspects positifs de l’IA. Il faut revoir collectivement le sens du travail afin d’aider tous les travailleurs qui seront affectés par cette révolution.
  • Un autre élément soulevé par plusieurs est la nécessité d’un dialogue sur les moyens de garantir un filet social et la possibilité d’instaurer un revenu minimum garanti. *Note au lecteur, cette recommandation se retrouve ici plutôt que dans le sommaire en matière de politiques publiques et gouvernance, car les participants semblaient insister sur l’importance d’un dialogue en continu sur cette question plutôt que l’instauration d’une politique précise.
  • On soulève la nécessité de créer des ponts à l’intérieur de départements universitaires et entre différents écosystèmes. La réalité du financement de la recherche universitaire et des organismes communautaires fait parfois entrave à la collaboration entre les organismes ou les départements. Dans le milieu universitaire, les fonds sont accordés selon des spécialités très pointues et favorisent conséquemment des silos de connaissances, alors qu’une implantation éthique et équitable de l’IA requiert des équipes pluridisciplinaires et multisectorielles.


À la lumière des recommandations des participants aux ateliers, il apparait explicitement que l’éducation a un rôle fondamental dans l’implantation éthique de l’IA. Non seulement, elle permet d’assurer un transfert des compétences requises pour un marché du travail qui évolue rapidement mais c’est également à travers l’éducation qu’un changement inclusif et durable sera possible. Il est vital que les différents secteurs collaborent pour assurer le développement d’une expertise adaptée aux besoins changeants du marché du travail de même que pour favoriser un discernement entre les risques et bénéfices potentiels liés aux sciences des données et l’IA.

La compréhension des risques pourra résulter en un encadrement normatif adapté à nos valeurs mais saura aussi favoriser le dénouement de résistances qui freinent certaines recherches. En effet, c’est via l’éducation que les bénéfices seront compris et les risques encadrés. Éduquée, consultée et rassurée au sujet des enjeux liés aux données et l’intelligence artificielle, la collectivité sera en mesure de faire des choix éclairés. La société pourra alors tirer avantage de l’utilisation des données et leur intégration dans des systèmes automatisés, notamment en matière de santé.

La réalisation des Lignes directrices actuelles pour allier éthique au numérique requière la mise en place de mécanismes de dialogue inclusifs et adaptés aux communautés et régions desservies. Par exemple, des rencontres stratégiques conçues dans des centres urbains n’auront peut-être pas le même impact en région éloignée.

Les questions d’accessibilité et d’acceptabilité de l’IA sont au cœur du rôle de l’éducation. Que ce soient via les arts ou la technologie, des outils innovateurs facilitant une meilleure compréhension des enjeux en lien avec l’IA sont intrinsèques à la démarche de co-construction sociale. C’est par ce dialogue et partage de connaissances que nous atteindrons ensemble une implantation éthique de l’IA au sein de nos structures de gouvernance et de notre modèle économique.

Face à la complexité de l’IA, l’éducation est un phare qui permet de naviguer entre les risques et bénéfices de son application. Ultimement, c’est en faisant naître l’enthousiasme que se réuniront les conditions nécessaires pour récolter la richesse que cette nouvelle technologie peut semer.

« Si tu veux construire un bateau, ne rassemble pas tes hommes et femmes pour leur donner des ordres, pour expliquer chaque détail, pour leur dire où trouver chaque chose… Si tu veux construire un bateau, fais naître dans le cœur de tes hommes et femmes le désir de la mer. »

Antoine de Saint-Exupéry


Communiqué de presse

1ère conférence montréalaise sur l’intelligence artificielle en mission sociale, 25-26 janvier

Intelligence artificielle :

Faire front commun pour choisir entre super-héros et robots tueurs

Montréal, le mardi 9 janvier 2018 – L’intelligence artificielle (IA) a le potentiel de promouvoir les droits de la personne et de soutenir des objectifs de développement durable, mais, pour citer Yoshua Bengio, chercheur de renommée mondiale spécialisé en Intelligence artificielle, elle pourrait également exacerber les inégalités et menacer la démocratie. L’IA soulève des craintes populaires bien concrètes, qu’il s’agisse de pertes massives d’emploi, de « robots tueurs » ou de manipulation psychologique.

Afin de comprendre et orienter les impacts sociaux de l’IA en vue de répondre aux besoins de la communauté, une conférence inaugurale sur le thème « Intelligence artificielle en mission sociale » aura lieu les 25 et 26 janvier 2018 au Centre Canadien d’architecture, 1920 rue Baile, à Montréal. Les présentations seront en français et en anglais et de la traduction simultanée sera disponible.

«L’IA représente à la fois un espoir et un danger », nous prévient Yoshua Bengio, qui sera conférencier d’honneur lors de l’événement. « Il y a des choix politiques à faire et le citoyen ordinaire doit les comprendre. Nous avons la responsabilité de ne pas laisser ces décisions entre les mains de quelques personnes. »

Au menu de la conférence: des présentations inspirantes, des panels passionnés et des petits groupes de discussion multidisciplinaires en vue d’amorcer un portrait et donner forme aux impacts sociaux de l’IA. Conférenciers et participants proposeront des solutions concrètes favorisant une implantation de l’intelligence artificielle qui reflète nos valeurs humanitaires.

Le contexte politique, économique et social au Québec et ailleurs dans le monde entre dans une période de transformation historique. La concentration d’organismes et de chercheurs en intelligence artificielle basés ici-même font en sorte que la métropole occupe une position stratégique: Montréal a le potentiel de devenir un meneur mondial sur les impacts sociaux de l’IA.

Pour ce faire, non seulement faut-il s’assurer que l’intelligence artificielle soit développée de façon éthique et responsable, mais il faut qu’elle soit implantée de façon équitable et accessible à tous.

Les organisateurs du premier événement combinant IA et action sociale tenaient d’abord à rejoindre les citoyens ordinaires via les organismes qui les représentent. Plus de 30 organismes sans but lucratif, en plus des chercheurs en innovation sociale, en intelligence artificielle et en sciences des données, participeront donc à la conférence.

« Il faut sortir l’IA du milieu académique, aller vers les citoyens et faciliter une concertation, une co‑création collective et même un front commun face aux risques réels que représente l’IA », explique Valentine Goddard, organisatrice de la conférence et directrice générale de Alliance Impact Intelligence Artificielle (AIIA).

L’événement « Intelligence artificielle en mission sociale » est rendu possible grâce à l’appui de L’Institut des algorithmes de l’apprentissage de Montréal (MILA), l’Institut de valorisation des données (IVADO) et Alliance Impact Intelligence Artificielle (AIIA). Par des moyens innovateurs et des collaborations pluridisciplinaires, AIIA vise un soutien proactif des organismes et entreprises à mission sociale.

Pour plus d’information ou pour s’inscrire à la première conférence « IA en mission sociale », visitez le site web au

– FIN –

Informations et demandes d’entrevues :
Valentine Goddard
(514) 512-0002