
How to Navigate the Risks and Rewards of the AI Revolution
Le texte français suit ci-dessous.
Listen to the Podcast:
Topics Covered
- How businesses can mitigate the risks of AI
- Understanding the business applications of new AI innovation
- Reskilling workers for a future powered by AI
- How government must approach regulating AI
Calls to Action
Scroll to the end to view the full summary of all calls to action from this interview.
The Opportunities and Challenges of AI

Sasha Krstic: Recent advancements in the field of artificial intelligence, particularly in generative AI, are proving that new technologies can create impact extremely quickly and be adopted at very high rates.
While consumers are beginning to explore AI in their personal lives, businesses – large and small – are grappling with how and where to adopt these new technologies, or in some cases, whether to adopt them at all. Many are trying to find the balance between not missing out on the opportunities that AI brings while also providing proper guardrails to employees on their own use and exploration of AI, to mitigate the business risks associated with AI.
Now is the time for business leaders and governments to be part of designing a new era of technology and deciding how AI will be implemented and used.
In the past year, we have seen AI really leapfrog and jump to a level where it is reaching everyday Canadians. It is no longer a technology only accessible to experts, tech companies or large-scale organizations. We have also seen how quickly these new technologies are advancing and changing our economic, political, and social landscape.
How have you seen AI positively impacting Canadians?
Sinead Bovell: Canadians have been using AI for years and years. Many people think of systems like ChatGPT when they think of artificial intelligence. But if Canadians are banking, on social media, reading the news, or if they need navigation, that is all artificial intelligence-based. About one in five Canadians have used generative AI and just under 20% of them use AI every single day. That is for things like writing research papers, getting ideas, and more. What early studies have shown from generative AI systems like ChatGPT is that it reduces the time it takes somebody to complete a knowledge-based task by 40%. It is actually the lowest-level of workers who saw the most significant productivity boost when using generative AI systems, which resulted in around three days a week instead of five for the same tasks.
“What early studies have shown from generative AI systems like ChatGPT is that it reduces the time it takes somebody to complete a knowledge-based task by 40%.”
If we have around 20% of Canadians using generative AI to knock off their workdays from five days to three and improving productivity, that is really exciting.
What happens in a world where Canadians have a chief of staff that they can co-create and do things with? If you have some form of a digital assistant that can help you execute strategic ideas and ideate on different projects, you can move through tasks a little bit quicker. I am excited about what Canadians get to experience as they start to co-create alongside these co-pilots.
Sasha: There are two sides to every coin. We just heard about disruption, efficiency, and time-saving. Those are all positives. But what about the flip side of that?
What are the risks and harms associated with AI?
David Birch: We are going to see a tidal wave of fraud because of generative AI. We have not made the progress we should have made on infrastructural defences. We do not have global digital identity infrastructure.
For me, it is always about identity theft. It is a fundamental problem we have now and Elon Musk has spent billions on this and not fixed it. If I cannot even tell if someone is a real person how are we going to solve disinformation and manipulation? By the way, it turns out that robots are now better at CAPTCHA codes than we are. The robots do those in 17.5 seconds on average. It takes people 22 seconds.
There are two broad categories of risks looking downstream. On the one hand, we may have giant killer robots roaming the countryside, killing everybody. But by and large, we can see the giant killer robots.
“We need digital signatures and certificates to help us identify real or fake information in this age of AI.”
I worked on a briefing paper for the Defence Data Research Centre, looking at the pervasive disinformation that can be automated, and that bothers me slightly more. We can see the giant killer robots, but we cannot identify the millions of fake messages being passed around on social media and the fake news everywhere. If I open up social media and there is a picture of Winston Churchill playing table tennis with Adolph Hitler, I would like to have something in the corner of the screen saying, “By the way, this did not actually happen. It is made up.” We need digital signatures and certificates to help us identify real or fake information in this age of AI.
I can run away from the giant killer robots. But if the news is being steadily drip-poisoned every day, that is much harder to defend against.
Sinead: There is no shortage of risks when it comes to any technology, especially AI. Bias and discrimination are the most notable risks for AI. AI is only as good as the data that it is trained on and the values of the programmer who built it. Data is usually something that comes from the past and the past is often something society does not want to repeat. Any sort of historical power imbalances or societal biases that are baked into datasets will affect how AI operates and what it does.
“People are also inputting sensitive personal information or company information into AI systems. Because data regulation and policy have been quite slow to catch up, that is not something we want to be doing with AI.”
We have to assume the data we use is biased and we have to think about who is not represented in our datasets for AI. We must build cultures around supporting people to come forward if there are certain things in a company’s history or in the datasets that need to be changed. We also need to think about who is in the room when AI is being created and deployed. If that group does not look like a representation of society, then we need to address it as that will promote the opposite of inclusion.
People are also inputting sensitive personal information or company information into AI systems. Because data regulation and policy have been quite slow to catch up, that is not something we want to be doing with AI. We do not want to treat AI like a friend, because it is not a friend. It is a tool that collects data and it can make a lot of mistakes. There are also cybersecurity risks with these AI systems. On one hand, we can potentially make our systems more secure by deploying AI. On the other hand, we also now have a system that can generate better phishing emails or find zero-day exploits in code. AI makes all tasks a bit more productive and accessible, which includes some of the tasks that can cause harm.
Government’s Role in AI Adoption

Sasha: Canadians are starting to adopt AI technologies, both for personal and business use. But from a business perspective, it does seem like we are trailing behind the US. Up to 72% of US companies are using AI technology but the number is much lower in Canada.
From a global point of view, what do you see other businesses or governments doing well to support the proper use of AI?
David: Until quite recently, I was the Fintech Ambassador for Jersey in the Channel Islands. They have a very well-developed trust law. That is an area where the UK has put its finger on something and the early experiments in that look good.
“With data trusts, you can put your data into a trust that is controlled by trustees, who can release it for appropriate purposes. You then get to share in the benefits of that trust.”
In order to make AI work, you have to shovel vast quantities of data into them. This is part of the problem at the moment because there are various creators complaining about how ChatGPT has copied their work. So the question is how we can get people to share the data that is necessary to power that next generation of AI while still protecting their rights and privacy. This idea of data trusts has really got some legs. With data trusts, you can put your data into a trust that is controlled by trustees, who can release it for appropriate purposes. You then get to share in the benefits of that trust. You can do that with financial data, health data, or other kinds of data. It is not just about having AI – we need a regulatory structure around it, not to constrain the AI and what it can do, but to constrain the data that it is fed.
Sinead: I had just spent the week at the General Assembly of the United Nations, where AI was a topic every single day, in some way or another. AI has really become a top priority for most countries.
“There are still 2.6 billion people in the world who have never even connected to the internet. What happens now if they are further locked out of the economy with the advent of AI?”
AI is similar to a pandemic or climate change in the sense that it really is a group project. It is a global project. How do we approach this as a globe, especially in the midst of a lot of other challenges that we are facing across the world? How do we take an aligned and combined approach to AI?
There are still 2.6 billion people in the world who have never even connected to the internet. What happens now if they are further locked out of the economy with the advent of AI? How do we balance a country’s national interests with artificial intelligence, while also considering the wider goals of humanity? That is where we are with AI. I am a bit relieved that it was such a point of focus for the General Assembly because I do think it is that important of a technology. It will impact every single job, every single industry, and everything that governments do.
AI for Business
Sasha: I want to take us now to specifically Canadian businesses, especially small businesses. In Canada, 98% of all businesses are small businesses. What are the strong use cases for AI within a small to medium-sized business?
How can small businesses leverage the power of AI to advance their businesses?
David: I work for companies that want to sell things to small businesses, and I can see the discussions crystallizing around three areas. One is financial services. SMEs are notoriously poor users of financial services. A friend of mine, Mike Kelly, wrote the Variable Recurring Payments standards for the UK’s open banking ecosystem. He recently experimented with writing some ChatGPT plugins for open banking in the UK. It is called BankGPT and through it, you can tell Chat GPT to look at your bank account and provide you with your needed information.The idea is to add more artificial intelligence to financial services. We need solutions that deliver financial health into the small business environment.
“If regulation was produced in such a way that it could be consumed by bots, people would be able to ask an AI system using really natural language like, “Am I allowed to sell this apple in that province?””
The second thing is regulatory. I worked on a project a few years ago on what was called “Machine Readable Handbooks.” For an awful lot of businesses, regulation is utterly incomprehensible. If regulation was produced in such a way that it could be consumed by bots, people would be able to ask an AI system using really natural language like, “Am I allowed to sell this apple in that province?”
The third thing goes back to Sinead’s point about the co-pilot. A lot of small business owners do not have the co-pilot they need to help them make better business decisions, not just about money, but about everything. Small business owners do not have the time to analyze all the data that comes in.
Sinead: There is a lot of opportunity being left on the table, especially amongst small businesses in Canada. AI is largely a conversation with data. What do you want to know about the market you are playing in? How does your business look next to competitors? What do you want to know about your customers? All of these are great entry points for artificial intelligence.
“If you see AI as the general-purpose technology it is, just like the internet or electricity, you will understand that the true value-add is combining your unique advantages and data with AI.”
If you wanted to know something very specific about a customer, obviously within the confines of protecting their data, you now have systems that could allow you to know what somebody is about to order before they order it. You could even start sending a product to a customer before they even click pay.
If you see AI as the general-purpose technology it is, just like the internet or electricity, you will understand that the true value-add is combining your unique advantages and data with AI. Big companies are building their own AI systems. There are enterprise-level AIs, where you can secure the value of your data, but put it on top of an existing AI system and use that to unlock all of the key things in your company. If you could train an AI system on every email that has ever been sent in your company or on every file that has ever been sent through and have that intelligence as a system that you can converse with, that becomes a game-changer for any small or big organization.
AI and Workers

Sasha: When we talk about AI in the workplace, the first question that often comes up is how AI is going to impact jobs and skill sets. What advice would you give to the future generation or even the current generation of workers who are thinking about what a future workplace powered by AI means for them? What are your thoughts on upskilling and reskilling?
What do workers need to be either excited or worried about from an AI perspective?
David: Scott Galloway, the master of the business aphorism around this kind of thing, said, “You are not going to lose your job to ChatGPT. But you are going to lose your job to someone who knows how to use ChatGPT better than you do.” For businesses, this is an important skill for people to have. The corporate strategies are not about replacing people with ChatGPT but about enhancing people with ChatGPT.
“One of the most important skills that you can keep up with is learning how to co-create with an AI system.”
If you look at where robots are deployed by the industrial sector at the moment – if this can be any kind of proxy for what is going to happen going forward – by far, the biggest density of robots is in the German car industry. But, the number of people deployed in the German car industry has not been going down. It is the other way around. Because they use robots, they are more productive. Because they are more productive, they can sell better, cheaper, and more cars. Because they sell better, cheaper, and more cars, they need more mechanics, salespeople, admin people, and more.
Sinead: One of the most important skills that you can keep up with is learning how to co-create with an AI system. For anyone who feels a little bit intimidated by that – remember that you use AI every single day. The reason why these systems have gone so viral and we are all talking about them is because they are so easy to use and the learning curve is so low. You can text with a system that way you text with a friend in a group chat.
Securing the Future of AI
Sasha: We have talked about the pace of change for AI. We have talked about its adoption as well as the need to provide some safeguards around that. It is tricky because by the time many regulatory agencies, governments, or other organizations put those safeguards in place, the technology has already leapfrogged.
What advice would you offer governments or regulatory agencies on how to think about the right principles to implement around safeguarding AI usage?
Sinead: By the time you deploy some regulation around AI, it is going to change. If we want to have adequate policies, we need to be matching AI’s speed of change with task forces in government that have long-range decision-making and planning capabilities, that have a little more strategic foresight.
“Taking a rights-based approach to AI regulation is absolutely essential. And the good news is this does not hamper innovation.”
In 2020, a company called OpenAI released a paper about a system called “GPT2” that they said was too dangerous to be released to the public. That should have been an alarm bell for any government to look into more long-range planning.
But in terms of the low-hanging fruit, taking a rights-based approach to AI regulation is absolutely essential. And the good news is this does not hamper innovation. Canadians have the right to equality of opportunity, the right to be forgotten, and the right to have decisions made about them that are free from racial, age, or sex considerations. We need to regulate that with respect to AI and offer people legal pathways to resolve any of those issues. That is the bare minimum that we need to do when it comes to how we proceed with regulating AI. We need to make sure we protect Canadians’ rights.
Sasha: If you had one piece of advice that you would give to enterprises that are adopting new technologies like AI, what would you say?
David: The mandate should be for Explainable AI. I would not want any AI in place that did not adhere to the fundamental principles of explainability. When any decision is made, we have to be able to go back and ask, “Why was this decision made?” We see this now with generative AI. It is a bullshitter. It just makes shit up. When you put something into generative AI, unless you actually know what the answer is, generative AI is not that useful. If you know what the answer is, then it is really helpful. It speeds things up. But you cannot believe everything it says. If AI is not explainable, it is not acceptable. We cannot be using unexplainable AI to make business decisions. We have to get explainability into this environment. Until you know why those decisions are being made, you cannot use any of those decisions.
Sasha: There are a few key takeaways from this conversation: One, what does AI take over versus what can it create? Secondly, what are the risks that we can identify versus the risks that we cannot see as obviously? Third, how can we safeguard data and make sure that the data inputs are reflective of the society we live in? Lastly, AI is a global phenomenon but it has local applications. We need to think about what is relevant for Canada.
While AI can be a difficult topic to dismantle, especially since the technology is evolving so rapidly, I am confident that based on our conversation today, we have a better outlook on how businesses and consumers use AI, how government and regulatory bodies can help ensure AI is implemented safely, and how the future workforce can take AI into account when planning their career.
Calls to Action
1. On Mitigating the Risks of Generative AI
- Develop the needed infrastructural defences like a global digital identity system
- Build software tools based on digital signatures and certificates that allow people to verify the credibility of information online
- Implement strong data regulations and policies to prevent AI from stealing and misusing data
- Canada can look to develop data trusts to help safeguard privacy while also ensuring that enough data is funnelled into AI to allow them to work
2. On Making AI Inclusive
- Countries have to think about how they can get AI tools into the hands of individuals who have been historically locked out of the digital economy
- Think about who is included and excluded from the datasets an AI uses to be more cognizant of AI bias
- AI companies must strive to have a more diverse pool of developers to ensure that the resulting product reflects the fabric of society
3. On the Business Applications of AI
- Fintech companies can introduce AI capabilities to their products to make the process easier for SMEs
- AI tools should be developed to help SMEs interpret the overly complex language of regulations in their industry
- AI can be built to be a “co-pilot” to small business owners, helping them make decisions on everything from finances to hiring and more.
- AI can be used to analyze data about markets, competitors, and customers to help businesses develop better strategies
4. On Developing AI for the Future Economy
- Companies should adapt AI to their unique data and advantages, creating their own internal AI to multiply their effectiveness
- AI companies must ensure that their tools can explain every decision or claim that they make
5. On the Future of Work With AI
- To keep up with the AI revolution, workers need to skill up and learn how to use AI effectively
6. On What AI Regulation Should Prioritize
- Government must create task forces that have long-range decision-making and planning to build strategic resiliency
- Government must take a rights-based approach to regulation, giving Canadians easy legal pathways to resolve potential issues with AI
Version française
Comment gérer les risques et les récompenses de la révolution de l’IA
Sujets couverts
- Comment les entreprises peuvent atténuer les risques liés à l’IA
- Comprendre les applications des nouvelles innovations en IA
- Requalifier les travailleurs pour un avenir propulsé par l’IA
- Comment le gouvernement doit-il aborder la réglementation de l’IA
Appels à l’action
Défilez jusqu’à la fin pour voir le résumé complet de tous les appels à l’action de cette interview.
Les opportunités et les défis de l’IA

Sasha Krstic : Les progrès récents dans le domaine de l’intelligence artificielle, en particulier dans le domaine de l’IA générative, prouvent que les nouvelles technologies peuvent avoir un impact extrêmement rapide et être adoptées à des rythmes très élevés.
Alors que les consommateurs commencent à explorer l’IA dans leur vie personnelle, les entreprises – grandes et petites – se demandent comment et où adopter ces nouvelles technologies, ou dans certains cas, si elles doivent les adopter du tout. Nombreux sont ceux qui tentent de trouver un équilibre entre ne pas manquer les opportunités qu’offre l’IA tout en fournissant des rambardes et directives appropriés aux employés concernant leur propre utilisation et exploration de l’IA, afin d’atténuer les risques commerciaux associés à l’IA.
Il est désormais temps pour les chefs d’entreprise et les gouvernements de participer à la conception d’une nouvelle ère technologique et de décider de la manière dont l’IA sera mise en œuvre et utilisée.
Au cours de la dernière année, nous avons vu l’IA faire un véritable bond de l’avant et atteindre un niveau tel qu’elle atteint les Canadiens ordinaires. Il ne s’agit plus d’une technologie accessible uniquement aux experts, aux entreprises technologiques ou aux organisations à grande échelle. Nous avons également constaté à quelle vitesse ces nouvelles technologies progressent et modifient notre paysage économique, politique et social.
Comment avez-vous vu l’IA avoir un impact positif sur les Canadiens ?
Sinead Bovell : Les Canadiens utilisent l’IA depuis des années et des années. Beaucoup de gens pensent à des systèmes comme ChatGPT lorsqu’ils pensent à l’intelligence artificielle. Mais si les Canadiens effectuent des opérations bancaires, sont sur les réseaux sociaux, lisent les actualités ou s’ils ont besoin de naviguer, tout cela repose sur l’intelligence artificielle. Environ un Canadien sur cinq a utilisé l’IA générative et un peu moins de 20 % d’entre eux l’utilisent chaque jour. C’est pour des choses comme rédiger des articles de recherche, trouver des idées, et plus encore. Ce que les premières études ont montré à partir des systèmes d’IA générative comme ChatGPT, c’est qu’ils réduisent de 40 % le temps nécessaire pour accomplir une tâche basée sur les connaissances. Il s’agit en fait des travailleurs du niveau le plus bas qui ont constaté l’augmentation de productivité la plus significative lors de l’utilisation de systèmes d’IA générative, ce qui s’est traduit par environ trois jours par semaine au lieu de cinq pour les mêmes tâches.
« Ce que les premières études ont montré à partir des systèmes d’IA générative comme ChatGPT, c’est qu’ils réduisent de 40 % le temps nécessaire pour accomplir une tâche basée sur les connaissances. »
Si environ 20 % des Canadiens utilisent l’IA générative pour réduire leur semaine de travail de cinq à trois jours et améliorer leur productivité, c’est vraiment excitant.
Que se passe-t-il dans un monde où les Canadiens ont un chef de cabinet avec lequel ils peuvent co-créer et faire des choses ? Si vous disposez d’une forme d’assistant numérique qui peut vous aider à exécuter des idées stratégiques et à réfléchir sur différents projets, vous pouvez avancer un peu plus rapidement dans les tâches. Je suis enthousiasmé par ce que les Canadiens pourront vivre lorsqu’ils commenceront à co-créer aux côtés de ces copilotes.
Sasha : Il y a deux faces à chaque médaille. Nous venons d’entendre parler de perturbation, d’efficacité et de gains de temps. Ce sont tous des points positifs. Mais qu’en est-il du revers de la médaille ?
Quels sont les risques et les méfaits associés à l’IA ?
David Birch : Nous allons assister à un raz-de-marée de fraude à cause de l’IA générative. Nous n’avons pas réalisé les progrès que nous aurions dû faire en matière de défense des infrastructures. Nous ne disposons pas d’infrastructure mondiale d’identité numérique.
Pour moi, il s’agit toujours d’usurpation d’identité. Il s’agit d’un problème fondamental que nous rencontrons actuellement et Elon Musk a dépensé des milliards pour cela sans le résoudre. Si je ne peux même pas dire si quelqu’un est une personne réelle, comment allons-nous résoudre la désinformation et la manipulation ? À propos, il s’avère que les robots sont désormais meilleurs que les codes CAPTCHA. Les robots le font en 17,5 secondes en moyenne. Cela prend 22 secondes aux gens.
Il existe deux grandes catégories de risques en aval. D’un côté, nous pouvons avoir des robots tueurs géants qui parcourent la campagne et tuent tout le monde. Mais dans l’ensemble, nous pouvons voir des robots tueurs géants.
« Nous avons besoin de signatures et de certificats numériques pour nous aider à identifier les informations réelles ou fausses dans l’ère de l’IA. »
J’ai travaillé sur un document d’information pour le Defense Data Research Center, examinant la désinformation omniprésente qui peut être automatisée, et cela me dérange un peu plus. Nous pouvons voir les robots tueurs géants, mais nous ne pouvons pas identifier les millions de faux messages circulant sur les réseaux sociaux et les fausses nouvelles partout. Si j’ouvre les réseaux sociaux et qu’il y a une photo de Winston Churchill jouant au tennis de table avec Adolf Hitler, j’aimerais avoir quelque chose dans le coin de l’écran disant : « Au fait, cela ne s’est pas réellement produit. C’est inventé » . Nous avons besoin de signatures et de certificats numériques pour nous aider à identifier les informations réelles ou fausses dans l’ère de l’IA.
Je peux fuir les robots tueurs géants. Mais si les nouvelles sont régulièrement empoisonnées goutte par goutte chaque jour, il est beaucoup plus difficile de s’en défendre.
Sinead : Les risques ne manquent pas lorsqu’il s’agit de toute technologie, l’IA en particulier. Les préjugés et la discrimination sont les risques les plus notables pour l’IA. La qualité de l’IA dépend des données sur lesquelles elle est formée et des valeurs du programmeur qui l’a construite. Les données proviennent généralement du passé et le passé est souvent quelque chose que la société ne veut pas répéter. Tout type de déséquilibre de pouvoir historique ou de préjugés sociétaux intégrés dans les ensembles de données affectera le fonctionnement et les activités de l’IA.
« Les gens saisissent également des informations personnelles sensibles ou des informations sur l’entreprise dans les systèmes d’IA. Parce que la réglementation et la politique en matière de données ont mis du temps à rattraper leur retard, ce n’est pas quelque chose que nous voulons faire avec l’IA. »
Nous devons supposer que les données que nous utilisons sont biaisées et nous devons réfléchir à ceux qui ne sont pas représentés dans nos ensembles de données pour l’IA. Nous devons construire une culture qui encourage les gens à se manifester s’il y a certaines choses dans l’histoire d’une entreprise ou dans les ensembles de données qui doivent être modifiées. Nous devons également réfléchir à qui est présent dans la pièce lorsque l’IA est créée et déployée. Si ce groupe ne ressemble pas à une représentation de la société, alors nous devons nous y attaquer car cela favoriserait le contraire de l’inclusion.
Les gens saisissent également des informations personnelles sensibles ou des informations sur l’entreprise dans les systèmes d’IA. Parce que la réglementation et la politique en matière de données ont mis du temps à rattraper leur retard, ce n’est pas quelque chose que nous voulons faire avec l’IA. Nous ne voulons pas traiter l’IA comme un ami, car ce n’est pas un ami. C’est un outil qui collecte des données et il peut commettre beaucoup d’erreurs. Il existe également des risques de cybersécurité avec ces systèmes d’IA. D’une part, nous pouvons potentiellement rendre nos systèmes plus sécurisés en déployant l’IA. D’un autre côté, nous disposons désormais d’un système capable de générer de meilleurs e-mails de phishing ou de trouver des exploits zero-day dans le code. L’IA rend toutes les tâches un peu plus productives et accessibles, y compris certaines des tâches pouvant causer des dommages.
Le rôle du gouvernement dans l’adoption de l’IA

Sasha : Les Canadiens commencent à adopter les technologies de l’IA, tant pour un usage personnel que professionnel. Mais d’un point de vue commercial, il semble que nous soyons à la traîne par rapport aux États-Unis. Jusqu’à 72 % des entreprises américaines utilisent la technologie de l’IA, mais ce chiffre est beaucoup plus faible au Canada.
D’un point de vue mondial, que pensez-vous que d’autres entreprises ou gouvernements fassent de bien pour soutenir l’utilisation appropriée de l’IA ?
David : Jusqu’à tout récemment, j’étais ambassadeur Fintech de Jersey dans les îles anglo-normandes. Ils ont une loi sur les fiducies très développée. C’est un domaine dans lequel le Royaume-Uni a mis le doigt et les premières expériences dans ce domaine semblent bonnes.
« Avec les fiducies de données, vous pouvez placer vos données dans une fiducie contrôlée par des administrateurs, qui peuvent les divulguer à des fins appropriées. Vous pourrez ensuite partager les bénéfices de cette fiducie. »
Pour que l’IA fonctionne, vous devez y injecter de grandes quantités de données. Cela fait partie du problème actuellement car divers créateurs se plaignent de la façon dont ChatGPT a copié leur travail. La question est donc de savoir comment amener les gens à partager les données nécessaires au fonctionnement de la prochaine génération d’IA tout en protégeant leurs droits et leur vie privée. Cette idée de fiducies de données a vraiment du succès. Avec les fiducies de données, vous pouvez placer vos données dans une fiducie contrôlée par des administrateurs, qui peuvent les divulguer à des fins appropriées. Vous pourrez ensuite partager les bénéfices de cette fiducie. Vous pouvez le faire avec des données financières, des données de santé ou d’autres types de données. Il ne s’agit pas seulement d’avoir l’IA : nous avons besoin d’une structure réglementaire autour de celle-ci, non pas pour contraindre l’IA et ce qu’elle peut faire, mais pour contraindre les données qui lui sont fournies.
Sinead : J’ai récemment passé une semaine à l’ Assemblée générale des Nations Unies, où l’IA était un sujet quotidien, d’une manière ou d’une autre. L’IA est véritablement devenue une priorité absolue pour la plupart des pays.
« Il y a encore 2,6 milliards de personnes dans le monde qui ne se sont jamais connectées à Internet. Que se passera-t-il maintenant s’ils sont encore plus exclus de l’économie avec l’avènement de l’IA ? »
L’IA s’apparente à une pandémie ou au changement climatique dans le sens où il s’agit bien d’un projet de groupe. C’est un projet global. Comment pouvons-nous aborder cette question en tant que planète, en particulier au milieu de nombreux autres défis auxquels nous sommes confrontés à travers le monde ? Comment adopter une approche alignée et combinée de l’IA ?
Il y a encore 2,6 milliards de personnes dans le monde qui ne se sont jamais connectées à Internet. Que se passera-t-il maintenant s’ils sont encore plus exclus de l’économie avec l’avènement de l’IA ? Comment concilier les intérêts nationaux d’un pays avec l’intelligence artificielle, tout en tenant compte des objectifs plus larges de l’humanité ? C’est là où nous en sommes avec l’IA. Je suis un peu soulagée que ce soit un tel point d’intérêt pour l’Assemblée générale, car je pense que c’est une technologie très importante. Cela aura un impact sur chaque emploi, chaque industrie et tout ce que font les gouvernements.
IA pour les entreprises
Sasha : Je veux maintenant nous intéresser spécifiquement aux entreprises canadiennes, en particulier aux petites entreprises. Au Canada, 98 % de toutes les entreprises sont de petites entreprises. Quels sont les principaux cas d’utilisation de l’IA au sein d’une petite et moyenne entreprise ?
Comment les petites entreprises peuvent-elles tirer parti de la puissance de l’IA pour faire progresser leurs activités ?
David : Je travaille pour des entreprises qui souhaitent vendre des choses aux petites entreprises, et je vois les discussions se cristalliser autour de trois axes. L’un concerne les services financiers. Les PME sont notoirement de piètres utilisateurs des services financiers. Un de mes amis, Mike Kelly, a rédigé les normes de paiements récurrents variables pour l’écosystème « open banking » du Royaume-Uni. Il a récemment expérimenté l’écriture de plugins ChatGPT pour l’ « open banking » au Royaume-Uni. Il s’appelle BankGPT et grâce à lui, vous pouvez demander à ChatGPT d’examiner votre compte bancaire et de vous fournir les informations dont vous avez besoin. L’idée est d’ajouter davantage d’intelligence artificielle aux services financiers. Nous avons besoin de solutions qui assurent la santé financière des petites entreprises.
« Si la réglementation était élaborée de telle manière qu’elle puisse être consommée par des robots, les gens pourraient demander à un système d’IA en utilisant un langage très naturel comme : « Suis-je autorisé à vendre cette pomme dans cette province ? » »
La deuxième chose est réglementaire. Il y a quelques années, j’ai travaillé sur un projet intitulé « Manuels lisibles par machine ». Pour un très grand nombre d’entreprises, la réglementation est totalement incompréhensible. Si la réglementation était élaborée de telle manière qu’elle puisse être consommée par des robots, les gens pourraient demander à un système d’IA en utilisant un langage très naturel comme : « Suis-je autorisé à vendre cette pomme dans cette province ? »
La troisième chose revient au point soulevé par Sinead à propos du copilote. De nombreux propriétaires de petites entreprises ne disposent pas du copilote dont ils ont besoin pour les aider à prendre de meilleures décisions commerciales, pas seulement en matière d’argent, mais pour tout. Les propriétaires de petites entreprises n’ont pas le temps d’analyser toutes les données qui leur parviennent.
Sinead : De nombreuses opportunités sont encore sur la table, en particulier parmi les petites entreprises au Canada. L’IA est en grande partie une conversation avec des données. Que voulez-vous savoir sur le marché sur lequel vous évoluez ? Comment votre entreprise se présente-t-elle par rapport à vos concurrents ? Que voulez-vous savoir sur vos clients ? Tous ces éléments constituent d’excellents points d’entrée pour l’intelligence artificielle.
« Si vous considérez l’IA comme une technologie à usage général, tout comme Internet ou l’électricité, vous comprendrez que la véritable valeur ajoutée consiste à combiner vos avantages et vos données uniques avec l’IA. »
Si vous souhaitez savoir quelque chose de très spécifique sur un client, évidemment dans le cadre de la protection de ses données, vous disposez désormais de systèmes qui pourraient vous permettre de savoir ce qu’une personne s’apprête à commander avant de le commander. Vous pouvez même commencer à envoyer un produit à un client avant même qu’il ne clique pour payer.
Si vous considérez l’IA comme une technologie à usage général, tout comme Internet ou l’électricité, vous comprendrez que la véritable valeur ajoutée consiste à combiner vos avantages et vos données uniques avec l’IA. Les grandes entreprises construisent leurs propres systèmes d’IA. Il existe des IA au niveau de l’entreprise, dans lesquelles vous pouvez sécuriser la valeur de vos données, mais les placer au-dessus d’un système d’IA existant et l’utiliser pour débloquer tous les éléments clés de votre entreprise. Si vous pouviez former un système d’IA sur chaque courriel jamais envoyé dans votre entreprise ou sur chaque fichier jamais envoyé et disposer de cette intelligence comme système avec lequel vous pouvez converser, cela changerait la donne pour toute petite entreprise ou grande organisation.
L’IA et les travailleurs

Sasha : Lorsque nous parlons de l’IA dans le milieu du travail, la première question qui revient souvent est de savoir quel impact l’IA aura sur les emplois et les compétences. Quels conseils donneriez-vous à la génération future ou même à la génération actuelle de travailleurs qui réfléchissent à ce que signifie pour eux un futur lieu de travail alimenté par l’IA ? Que pensez-vous du perfectionnement et de la requalification ?
De quoi les travailleurs doivent-ils être excités ou inquiets du point de vue de l’IA ?
David : Scott Galloway, le maître de l’aphorisme commercial autour de ce genre de choses, a déclaré : « Vous n’allez pas perdre votre emploi à cause de ChatGPT. Mais vous allez perdre votre emploi au profit de quelqu’un qui sait mieux que vous utiliser ChatGPT. » Pour les entreprises, il s’agit d’une compétence importante à posséder. Les stratégies d’entreprise ne visent pas à remplacer les personnes par ChatGPT mais à améliorer les personnes avec ChatGPT.
« L’une des compétences les plus importantes que vous puissiez acquérir est d’apprendre à co-créer avec un système d’IA. »
Si l’on regarde les endroits où les robots sont actuellement déployés par le secteur industriel – si cela peut être une sorte d’indicateur de ce qui va se passer à l’avenir – la plus grande densité de robots se trouve de loin dans l’industrie automobile allemande. Mais le nombre de personnes déployées dans l’industrie automobile allemande n’a pas diminué. C’est l’inverse. Parce qu’ils utilisent des robots, ils sont plus productifs. Parce qu’ils sont plus productifs, ils peuvent vendre des voitures meilleures, moins chères et plus nombreuses. Parce qu’ils vendent des voitures meilleures, moins chères et plus nombreuses, ils ont besoin de plus de mécaniciens, de vendeurs, d’administrateurs et bien plus encore.
Sinead : L’une des compétences les plus importantes que vous puissiez acquérir est d’apprendre à co-créer avec un système d’IA. Pour tous ceux qui se sentent un peu intimidés par cela, rappelez-vous que vous utilisez l’IA tous les jours. La raison pour laquelle ces systèmes sont devenus si viraux et nous en parlons tous est qu’ils sont si faciles à utiliser et que la courbe d’apprentissage est si courte. Vous pouvez envoyer des SMS avec un système de la même façon que vous envoyez des SMS à un ami dans une discussion de groupe.
Assurer l’avenir de l’IA
Sasha : Nous avons parlé du rythme du changement pour l’IA. Nous avons parlé de son adoption ainsi que de la nécessité de prévoir certaines garanties à cet égard. C’est délicat, car au moment où de nombreux organismes de réglementation, gouvernements ou autres organisations mettent ces garanties en place, la technologie a déjà fait un bond en avant.
Quels conseils donneriez-vous aux gouvernements ou aux autorités règlementaires sur la manière de réfléchir aux bons principes à mettre en œuvre pour protéger l’utilisation de l’IA ?
Sinead : Au moment où vous mettrez en place une réglementation autour de l’IA, elle va changer. Si nous voulons avoir une politique adéquate, nous devons adapter la vitesse de changement de l’IA à des groupes de travail gouvernementaux dotés de capacités de prise de décision et de planification à long terme et dotés d’un peu plus de prospective stratégique.
« Il est absolument essentiel d’adopter une approche pour la réglementation de l’IA fondée sur les droits. Et la bonne nouvelle est que cela n’entrave pas l’innovation. »
En 2020, une société appelée OpenAI a publié un article sur un système appelé « GPT2» qui, selon elle, était trop dangereux pour être rendu public. Cela aurait dû être un signal d’alarme pour que tout gouvernement envisage une planification à plus long terme.
Mais en ce qui concerne les opportunités immédiates, il est absolument essentiel d’adopter une approche pour la réglementation de l’IA fondée sur les droits. Et la bonne nouvelle est que cela n’entrave pas l’innovation. Les Canadiens ont le droit à l’égalité des opportunités, le droit à l’oubli et le droit à ce que des décisions soient prises à leur sujet sans considérations de race, d’âge ou de sexe. Nous devons réglementer cela en ce qui concerne l’IA et offrir aux gens des voies juridiques pour résoudre n’importe lequel de ces problèmes. C’est le strict minimum que nous devons faire en ce qui concerne la manière dont nous procédons à la réglementation de l’IA. Nous devons nous assurer de protéger les droits des Canadiens.
Sasha : Si vous aviez un conseil que vous donneriez aux entreprises qui adoptent de nouvelles technologies comme l’IA, que diriez-vous ?
David : Le mandat devrait porter sur l’IA explicable. Je ne voudrais pas qu’une IA soit en place qui ne respecte pas les principes fondamentaux de l’explicabilité. Lorsqu’une décision est prise, nous devons être capables de revenir en arrière et de nous demander : « Pourquoi cette décision a-t-elle été prise ? » Nous le voyons maintenant avec l’IA générative. C’est une menteuse. Ça invente des choses. Lorsque vous mettez quelque chose dans l’IA générative, à moins que vous ne sachiez réellement quelle est la réponse, l’IA générative n’est pas très utile. Si vous connaissez la réponse, alors c’est vraiment utile. Cela accélère les choses. Mais on ne peut pas croire tout ce qu’elle dit. Si l’IA n’est pas explicable, elle n’est pas acceptable. Nous ne pouvons pas utiliser une IA inexplicable pour prendre des décisions commerciales. Nous devons rendre l’explicabilité possible dans cet environnement. Tant que vous ne savez pas pourquoi ces décisions sont prises, vous ne pouvez utiliser aucune de ces décisions.
Sasha : Il y a quelques points clés à retenir de cette conversation : premièrement, qu’est-ce que l’IA prend en charge par rapport à ce qu’elle peut créer ? Deuxièmement, quels sont les risques que nous pouvons identifier par rapport aux risques que nous ne pouvons pas percevoir de manière évidente ? Troisièmement, comment pouvons-nous protéger les données et garantir que les données saisies reflètent la société dans laquelle nous vivons ? Enfin, l’IA est un phénomène mondial mais qui a des applications locales. Nous devons réfléchir à ce qui est pertinent pour le Canada.
Bien que l’IA puisse être un sujet difficile à démanteler, d’autant plus que la technologie évolue si rapidement, je suis convaincue que, sur la base de notre conversation d’aujourd’hui, nous avons une meilleure vision de la manière dont les entreprises et les consommateurs utilisent l’IA, et de la manière dont les gouvernements et les organismes de réglementation peuvent contribuer à garantir que l’IA soit mise en œuvre en toute sécurité et comment les futurs travailleurs peuvent en tenir compte lors de la planification de leur carrière.
Appels à l’action
1. Sur l’atténuation des risques de l’IA générative
- Il faut développer les défenses infrastructurelles nécessaires comme un système mondial d’identité numérique.
- On doit créer des logiciels basés sur des signatures numériques et des certificats permettant aux utilisateurs de vérifier la crédibilité des informations en ligne.
- Il faut mettre en œuvre des réglementations et des politiques strictes en matière de données pour empêcher l’IA de voler et d’utiliser à mauvais escient les données.
- Le Canada peut envisager de développer des fiducies de données pour aider à protéger la confidentialité tout en garantissant que suffisamment de données sont acheminées vers l’IA pour leur permettre de fonctionner.
2. Pour rendre l’IA inclusive
- Les pays doivent réfléchir à la manière dont ils peuvent mettre les outils d’IA entre les mains de personnes historiquement exclues de l’économie numérique.
- Pensez à qui est inclus et exclu des ensembles de données qu’une IA utilise pour être plus conscient des biais de l’IA
- Les entreprises d’IA doivent s’efforcer de disposer d’un bassin de développeurs plus diversifié pour garantir que le produit résultant reflète le tissu social.
3. Sur les applications commerciales de l’IA
- Les entreprises Fintech peuvent introduire des capacités d’IA dans leurs produits afin de faciliter le processus pour les PME
- Des outils d’IA devraient être développés pour aider les PME à interpréter le langage trop complexe des réglementations de leur secteur
- L’IA peut être conçue pour servir de « copilote » aux propriétaires de petites entreprises, les aidant à prendre des décisions sur tout, des finances à l’embauche et bien plus encore.
- L’IA peut être utilisée pour analyser les données sur les marchés, les concurrents et les clients afin d’aider les entreprises à développer de meilleures stratégies.
4. Sur le développement de l’IA pour l’économie du futur
- Les entreprises doivent adapter l’IA à leurs données et avantages uniques, en créant leur propre IA interne pour multiplier leur efficacité.
- Les entreprises d’IA doivent s’assurer que leurs outils peuvent expliquer chaque décision ou affirmation qu’elles prennent
5. Sur l’avenir du travail avec l’IA
- Pour suivre la révolution de l’IA, les travailleurs doivent acquérir des compétences et apprendre à utiliser l’IA efficacement.
5. Sur les priorités de la règlementation de l’IA
- Le gouvernement doit créer des groupes de travail dotés de capacités de prise de décision et de planification à long terme pour renforcer la résilience stratégique.
- Le gouvernement doit adopter une approche de réglementation fondée sur les droits, offrant aux Canadiens des voies juridiques faciles pour résoudre les problèmes potentiels liés à l’IA.


