IA on Mission Sociale Conference – 2018 Edition

January 2018 edition*

*2019 program to be finalised soon

Montreal, January 25th, 26th, 2018

Keynote Speakers

Meet some of our keynote speakers. A surprise still to come.

Yoshua Bengio

Yoshua Bengio

Professor at University of Montreal, IT and Operational Research, Co-Founder of Element AI and Director at MILA.

Kathryn Hume

Kathryn Hume

VP, Product and Strategy at Integrate.AI

Karim Benyekhlef

Karim Benyekhlef

Professor, Law Depertement at University of Montreal, Director of Cyberjustice Lab.

Panelists

Jean-Martin Aussant

Jean-Martin Aussant

Executive Director, Chantiers de l’économie sociale

Carole Piovesan

Carole Piovesan

Associate, AI and the Law, McCarthy Tétrault

Eleonore Fournier-Tombs

Eleonore Fournier-Tombs

Finance Director,
Aifred Health

Karina Kasserwan

Lawyer, Indigenous Law, Kesserwan Arteau

Jean-Noé Landry

Social entrepreneur, Executive Director, Open North

Gabrielle Paris Gagnon

Avocate, Propulsio

Tina Groves

Director, Data for Good. Portfolio Strategy, Analytics, IBM 

Catherine Légaré

Catherine Légaré

Founder and Director, Academos

Betty Ferreira

Founder and Executive Director, Restructure.ca

Leslie L. Cheung

Leslie L. Cheung

Partnership Development Director, Powered by Data

Marc-André Roberge

Social entrepreneur, Nectar

Roberta Voulon

Founder and President, Talent incubator Les Pitonneux

Jonatan Bouchard

Jonatan Bouchard

Data Analysis and Strategy Director, Sunlife Financial.

Kai-Hsin Hung

External Collaborator, ITC ILO

Mehdi Merai

CEO, Data Performers

Patrick Dubé

Director, Maison de l’innovation sociale

Christiane Saad

Co-Director, Law Faculty, Ottawa University

Laurence Dauphinais

Actor and Co-Creator, Dialogues avec Siri

Maxime Carbonneau

Co-Creator, Dialogues avec Siri

Social Mission Pitches

Start ups and non-profit organizations that use AI to support their social mission

Logo AiFred
Logo Ubenwa
Logo Laboratoire Domus
Logo Quotient Social
Logo Mr Young
Logo Myelin
Logo Akademos
Logo Botler Ai
Logo NordOuvert
Logo Lincs

Policy recommendations summary

Part 1 AI Governance and policy innovation

AI can be used for social good, but citizens need to be part of the dialogue around which values we want embedded into AI policies and systems.

Artificial intelligence (AI) has the potential to be human rights’ best advocate and its worst enemy. Either it can help us reach the UN’s Sustainable Development Goals (SDGs) or, to quote internationally renowned AI scientist Yoshua Bengio, it can “increase discrepancies between the rich and the poor and be a threat to democracy.” Fears of job loss and psychological manipulation are real and require a united front.

To help us better understand and shape the social impacts of AI for the greater good, the inaugural conference AI on a Social Mission was held last month in Montreal. “AI is both a hope and a danger,” warned Bengio, who was the keynote speaker at the conference.

Over the course of the two days, inspiring start-ups convened to share how they use AI to save lives, make information on mental health more accessible, support personalized education and more. Expert panels delved into issues that included open data governance, AI’s impact on legal frameworks and the accessibility and acceptability of these new technologies. Multidisciplinary discussion groups assessed the social impacts of AI, and participants offered concrete suggestions on how to implement AI in a way that reflects humanitarian values.

The world is facing a historical shift. The concentration of researchers and AI talent in Canada positions us strategically as a country with the potential to become a world leader in artificial intelligence. To achieve that, AI must be developed ethically and responsibly to ensure its equitable and accessible implementation for everyone. We need to get AI out of the academic milieu and reach out to the community, facilitate a collective co-creation of our future and forge a united front against the risks posed by AI.

Combining AI and social work, I wanted to reach citizens through the community organizations and non-profits representing them. The event was sold out, with approximately 200 participants, including 50 nonprofits as well as numerous AI, data science, ethics and social innovation researchers.

Here are some of the recommendations that emerged from the gathering.

Oversight body

The algorithms innate to the machine-learning and deep-learning programs used in various applications and platforms are very complex. As a result, there’s a lot of support for an independent public body to oversee AI implementation, whether it’s an ombudsman, watchdog, auditing bureau or some kind of financial market authority. Independent experts are needed to audit systems that might one day be responsible for affecting citizens’ access to, or denial of, certain public services or privileges. This independent body would hear citizens’ complaints, analyze recurring problems and make recommendations as we gradually adapt to the implementation and use of AI in our society.

Countries around the world are racing against each other and investing heavily in AI research and application. Will leaders use AI to support social, economic and cultural rights or, inadvertently, to fuel further inequalities? Questions we can’t even think of today will arise tomorrow. A flexible and transparent body is necessary to protect our values as a society.

Certification standard

Multidisciplinary discussion groups at the conference pushed strongly for an Ethical AI” certification as a tool to ensure its principled implementation. Many referred to an approach similar to the International Organization for Standardization’s (ISO) certification that could be applied to any application, tool or platform using AI. The certification would have to be well funded and structured, and evaluated quickly, given the AI race in economic and military circles. Some categories, in fact, could be fast-tracked based on public good and safety considerations.

Accessibility

The third loud and resounding consensus was that data must be accessible to, and useable by, the public and researchers. Suggestions were made about data being entrusted to a public body to ensure that it’s accessible and of good quality, in an effort to improve prosperity for all citizens. If data is the new pillar of democracy, how can citizens possibly harness the power of AI if they can’t use their own data?

Critically important recommendations were made on providing non-profits with better data governance mechanisms. Nonprofits serving our most vulnerable citizens must be empowered with data analysis and data science tools. This funding could allow them to build so-called “data co-ops” per sector and optimize their reach and social return on investment (SROI). A data co-op is a rapidly growing platform that allows the flow of data among communities in the cooperative social economy. The data co-op not only serves these communities, it is also owned by them.

Legal framework

There is a pressing need for our legal frameworks to be reviewed and adapted to our rapidly changing needs. Whether in the context of research, policy-making or product development, innovating with a new technology raises unanticipated questions. Leaders are being called upon to ask themselves whether their clients or constituents agree on what constitutes informed consent or whether they feel violated when data are shared. Can governments impose automatic consent for data-sharing based on the argument that it will benefit public health, for example? Can we and how should we redistribute the prosperity AI is promising to generate?

These questions revolve around privacy, consent, and redistribution of wealth, and they are fundamental to the governing of our society. Al require us to revisit our values as a society as we embed then into our policies, laws and regulations on AI. What are the values we want to protect in a diverse, multilingual and multicultural society – democracy, equality, diversity, safety, sustainability?

Privacy and human rights

Some of the other areas that must be regulated include: citizens’ control over their data; the right to privacy; protection against psychological manipulation and the right to explanation and appeal when prescriptive and predictive algorithms are used and human rights are at stake.

Incentives

Our laws and policies must safeguard our values, and so the use of fiscal and financial incentives was also recommended. Two of the major suggestions were incentives to collaborate across sectors using tax breaks, much like a research and development tax, and the taxation of profitable uses of data to fund public services and AI research and development that serve the public good.

Social Impact Index

On a similar note, participants at the conference supported the concept of a Social Impact Index (SII). A SII would assess the value a company contributes to society, as a guide for investors and public funders. Organizations would be supported in developing SROIs and incorporating them into their return on investment reports. Governments could evaluate, through the use of algorithms, whether a company rates highly on an SII, and whether it should receive public funding.

The complexity of artificial intelligence is intimidating. Its potential impact can fuel distress and fear. To feel reassured, citizens need to understand how AI works and how it can benefit them. Civil society must be given the means not only to increase digital literacy, but also to allow an open, inclusive public dialogue on which values we want embedded into our policies, into our legal frameworks and eventually into autonomous AI systems.

Events like the AI on a Social Mission conference allow citizens to be heard through the organizations that represent them, facilitate learning and knowledge transfer, and make it possible for all to share the excitement of AI’s revolutionary potential. Events like this bring together experts of different disciplines to collaborate and share their know-how on the beneficial use of AI for humanity.

Discussing AI’s impact on society is crucial as we rethink the legal frameworks that will implement our societal values and reach the goals we set together. Those at the Montreal conference avidly recommended further opportunities for dialogue.

Part 2 the role of the education in AI ethics

Translation to English coming soon

Lors de la conférence Intelligence Artificielle en Mission Sociale, tenue les 25 et 26 janvier derniers, de petits groupes multidisciplinaires se sont penchés sur l’implantation éthique de l’intelligence artificielle (IA) au sein de notre société. Chaque groupe de discussion était facilité par un membre de l’équipe de IA en mission sociale qui a soigneusement récolté les recommandations des participants dont voici un sommaire.

Portrait des participants

Tout d’abord, il est important de souligner que sur 185 inscriptions, 52 provenaient d’organismes à but non-lucratif, permettant une représentation importante de la société civile. Cet objectif a été atteint avec succès grâce à un prix d’entrée accessible adapté aux budgets limités des organismes communautaires, une campagne d’information par courrier électronique, des appels directs et du bouche à oreille.

Les organisateurs ont conçu les groupes de discussion de façon à assurer une représentation multidisciplinaire et multisectorielle. Les participants aux groupes de discussion incluaient notamment des chercheurs et des praticiens en politiques publiques, en innovation sociale, en droit, en éthique, en travail social, en éducation, en apprentissage automatisée et profond, en sciences des données, des entrepreneurs, des gestionnaires et des étudiants dans divers domaines.

Les trois questions posées aux participants sont les suivantes:

1) Super-héros ou robots-tueurs : si vous aviez tous les moyens nécessaires, pour quels types de projets utiliseriez-vous l’intelligence artificielle?

2) Bâtir des ponts : comment améliorer la collaboration ?

3) Concrètement, sur 0-5 ans, comment atteindre une implantation éthique et équitable de l’IA?

Les résultats ont été compilés en trois rapports sommaires.

  • Le premier rapport porte sur les recommandations en gouvernance et politiques publiques publié par l’Institut de recherche en politiques publiques.
  • Ce document est le second rapport et il porte sur le rôle de l’éducation dans l’implantation éthique et équitable de l’intelligence artificielle au sein de notre société.
  • Le troisième rapport, qui sera publié sous peu, portera sur quelques solutions technologiques au développement éthique de l’intelligence artificielle.

Synthèse des recommandations 

Outiller dès l’enfance et tout au cours de la vie adulte

  • Une insatisfaction générale vis à vis du statu quo en éducation en milieu scolaire est sous-entendue et la question de l’enseignement dans les écoles et du cheminement scolaire dénote un besoin d’amélioration.
  • On se questionne notamment sur les approches optimales visant à favoriser une éducation plus adaptée aux différentes formes d’intelligence et styles d’apprentissage des enfants.
  • L’importance d’enseigner les habiletés sociales nécessaires au travail d’équipe pluridisciplinaire dès le primaire de même que tout au long de la vie de travail est soulignée à plusieurs reprises.
  • On recommande de favoriser un esprit critique et la créativité dès la petite enfance.
  • Tant pour les enfants que les adultes, il est suggéré de considérer l’apprentissage autodidacte et alternatif de même que la reconnaissance de compétences autre que les méthodes traditionnelles.
  • On recommande un apprentissage via des stages en milieu de travail dans un environnement pluridisciplinaire afin de favoriser un partage de connaissances.
  • Tant au niveau des nouveaux arrivants que des personnes qui seront affectées par les changements technologiques, on aborde la question de la reconnaissance des acquis et des compétences. On pointe vers des outils technologiques qui pourraient permettre une reconnaissance plus efficace des compétences et de mettre les individus affectés en contact avec de nouveaux employeurs. Il est suggéré de travailler en collaboration avec les organismes sans but lucratif qui œuvrent déjà dans le secteur de l’employabilité car ils possèdent les liens avec la communauté et l’expertise requise.
  • L’obligation de suivre des cours d’éthique pour tous les étudiants, chercheurs et développeurs en sciences des données, en apprentissage profond et automatisé est fortement suggérée. Certains recommandent de plus l’adoption d’un code d’éthique comme c’est le cas, par exemple, pour les avocats, médecins et travailleurs sociaux.

Soutenir un dialogue intersectoriel 

  • Tant au niveau académique qu’au sein des entreprises et de la population générale, un changement de culture doit s’amorcer pour prendre un virage technologique qui bénéficie à tous. Non seulement est-il essentiel de consacrer des ressources importantes à la compréhension de la logique algorithmique, des enjeux entourant les données et de la numératie technologique, mais il est également suggéré de mettre en place des mécanismes de dialogue entre le citoyen, le secteur privé et le gouvernement. Ces mécanismes servent à la fois comme des outils d’éducation populaire et de consultation citoyenne mais aussi de dialogue entre les parties prenantes au virage technologique.
  • L’éducation populaire, les consultations citoyennes et le dialogue citoyen-gouvernance-entreprises devrait être diversifiée, inclusive et proactive afin de rejoindre toute la population via, par exemple, les arts, des outils technologiques et les médias.
  • La numératie technologique et algorithmique est plus que jamais vu par plusieurs intervenants comme une priorité. On identifie également le besoin de simplification et de vulgarisation du langage entourant l’intelligence artificielle afin d’encourager la participation de tous aux consultations sur l’implantation de l’IA.
  • Il ressort un besoin de créer un langage moins alarmiste autour de l’IA afin de favoriser une plus grande participation de tous.
  • Un nombre considérable de participants ont conclu sur la nécessité de favoriser des ponts entre les secteurs technologiques, privés, académiques et les organismes de la société civile.
  • L’importance de l’approche pluridisciplinaire est valorisée, contrairement à l’approche par silo de compétences. Des équipes multidisciplinaires, inclusives de la diversité, mettant une forte importance sur l’éthique sont l’équipe de travail de l’avenir, qui doit être mise en œuvre et promue dès maintenant.
  • À cause de son caractère éducatif, consultatif et multidisciplinaire, des événements tel que la conférence IA en Mission Sociale devraient être soutenus et facilités par les différents secteurs.

Assurer l’accès aux ressources

  • L’implantation de l’IA passe par une meilleure gestion des données et, par conséquent, plusieurs participants soulèvent la nécessité des former les citoyens et les organismes qui œuvrent auprès de personnes plus vulnérables et isolées sur différentes questions déterminantes relatives aux données. À cet effet, il est suggéré d’offrir des formations sur les données pour les citoyens et les organismes sans but lucratif qui les desservent.
  • La réalité du financement des petits organismes sans but lucratif fait en sorte qu’ils n’ont souvent pas accès à un développeur web, et encore moins à un spécialiste en gestion des données. Sans soutien concret en gestion des données, la voix de tous ne sera pas entendue au cours de transition vers l’économie 4.0 et c’est tout un secteur qui sera laissé pour compte. Pour concevoir une société où l’IA est au service des citoyens et éviter un accroissement des inégalités sociales, nous devons favoriser un plus grand accès à la science de données et l’intelligence artificielle pour les organismes sans but lucratifs qui œuvrent au service des personnes plus isolées et vulnérables.
  • Une des grandes craintes des participants porte sur les éventuelles pertes d’emplois qui pourraient être causées par l’automatisation de certaines tâches. On se questionne avec inquiétude sur où seront redirigé les emplois robotisés, vers quel secteur et comment. On suggère de faire rapidement une réflexion sur le sens du travail en regard des aspects positifs de l’IA. Il faut revoir collectivement le sens du travail afin d’aider tous les travailleurs qui seront affectés par cette révolution.
  • Un autre élément soulevé par plusieurs est la nécessité d’un dialogue sur les moyens de garantir un filet social et la possibilité d’instaurer un revenu minimum garanti. *Note au lecteur, cette recommandation se retrouve ici plutôt que dans le sommaire en matière de politiques publiques et gouvernance, car les participants semblaient insister sur l’importance d’un dialogue en continu sur cette question plutôt que l’instauration d’une politique précise.
  • On soulève la nécessité de créer des ponts à l’intérieur de départements universitaires et entre différents écosystèmes. La réalité du financement de la recherche universitaire et des organismes communautaires fait parfois entrave à la collaboration entre les organismes ou les départements. Dans le milieu universitaire, les fonds sont accordés selon des spécialités très pointues et favorisent conséquemment des silos de connaissances, alors qu’une implantation éthique et équitable de l’IA requiert des équipes pluridisciplinaires et multisectorielles.

Conclusion

À la lumière des recommandations des participants aux ateliers, il apparait explicitement que l’éducation a un rôle fondamental dans l’implantation éthique de l’IA. Non seulement, elle permet d’assurer un transfert des compétences requises pour un marché du travail qui évolue rapidement mais c’est également à travers l’éducation qu’un changement inclusif et durable sera possible. Il est vital que les différents secteurs collaborent pour assurer le développement d’une expertise adaptée aux besoins changeants du marché du travail de même que pour favoriser un discernement entre les risques et bénéfices potentiels liés aux sciences des données et l’IA.

La compréhension des risques pourra résulter en un encadrement normatif adapté à nos valeurs mais saura aussi favoriser le dénouement de résistances qui freinent certaines recherches. En effet, c’est via l’éducation que les bénéfices seront compris et les risques encadrés. Éduquée, consultée et rassurée au sujet des enjeux liés aux données et l’intelligence artificielle, la collectivité sera en mesure de faire des choix éclairés. La société pourra alors tirer avantage de l’utilisation des données et leur intégration dans des systèmes automatisés, notamment en matière de santé.

La réalisation des Lignes directrices actuelles pour allier éthique au numérique requière la mise en place de mécanismes de dialogue inclusifs et adaptés aux communautés et régions desservies. Par exemple, des rencontres stratégiques conçues dans des centres urbains n’auront peut-être pas le même impact en région éloignée.

Les questions d’accessibilité et d’acceptabilité de l’IA sont au cœur du rôle de l’éducation. Que ce soient via les arts ou la technologie, des outils innovateurs facilitant une meilleure compréhension des enjeux en lien avec l’IA sont intrinsèques à la démarche de co-construction sociale. C’est par ce dialogue et partage de connaissances que nous atteindrons ensemble une implantation éthique de l’IA au sein de nos structures de gouvernance et de notre modèle économique.

Face à la complexité de l’IA, l’éducation est un phare qui permet de naviguer entre les risques et bénéfices de son application. Ultimement, c’est en faisant naître l’enthousiasme que se réuniront les conditions nécessaires pour récolter la richesse que cette nouvelle technologie peut semer.

« Si tu veux construire un bateau, ne rassemble pas tes hommes et femmes pour leur donner des ordres, pour expliquer chaque détail, pour leur dire où trouver chaque chose… Si tu veux construire un bateau, fais naître dans le cœur de tes hommes et femmes le désir de la mer. »

Antoine de Saint-Exupéry

[/section]

Press

Press release

1st conference on AI on a Social Mission in Montreal, January 25th-26th

Super Heroes or Killer Robots:

What’s our Artificial Intelligence going to be?

Montreal, January 9th, 2018: Artificial Intelligence (AI) has the potential to be human right’s best advocate as well as its worst enemy. It can either help us reach sustainable development goals or, to quote internationally-renowned AI scientist Yoshua Bengio, AI can increase discrepancies between the rich and the poor and be a threat to democracy. Fears of job loss, killer robots and psychological manipulation are real and need to be addressed by a united front.

To better understand and shape the social impacts of AI for the greater good, the inaugural conference on the theme of “AI on a Social Mission” is being held January 25th and 26th 2018 at the Canadian Center for Architecture, 1920, Baile Street, in Montreal. Presentations are both in English and French and simultaneous translation will be provided.

“AI is both a hope and a danger,” warns Yoshua Bengio, who will be the keynote speaker at the conference. “There are political choices to be made and the ordinary citizen must understand them. We have the responsibility to not leave these decisions in the power of a handful of individuals.”

During the conference, inspiring presentations, passionate panels and small multidisciplinary discussion groups are on the menu to assess and shape the social impacts of AI. Speakers and participants will offer solutions and make concrete suggestions on how to implement AI in a way that reflects our humanitarian values.

The political, economic and social context in Quebec and the world is facing a historical period of change. The concentration of researchers and AI talent gives this city a strategic position: Montreal has the potential to become a world leader on the social impacts of AI.

To achieve that, not only do we want AI to be developed ethically and responsibly, we need to make sure it is implemented equitably and accessible to everyone.

Combining AI and social work, the conference organizers wanted to reach citizens first through the community organizations and non-profits that represent them. Over 30 non-profits as well as numerous AI, data science, ethics, social innovation researchers will be participating at the conference.

“We need to get AI out of the academic milieu and reach out to the community, we need to facilitate a discussion, a collective co-creation and forge a united front to the real risks of AI,” explains Valentine Goddard, organizer and executive director of Artificial Intelligence Impact Alliance (AIIA).

The event is made possible thanks to the support of L’Institut des algorithmes de l’apprentissage de Montréal (MILA), and the Institute for Data Valorisation (IVADO) and Artificial Intelligence Impact Alliance (AIIA). Through innovative ways and multidisciplinary collaborations, AIIA offers proactive support to organisations and businesses with a social mission.

For more information or to register to the first “AI on a Social Mission” conference, please visit the website http://www.aionasocialmission.com/

– END –

For interviews and additional information:

Valentine Goddard
info@allianceimpact.org
(514) 512-0002

Leave a Reply

Your email address will not be published. Required fields are marked *