Episode Transcript
Available transcripts are automatically generated. Complete accuracy is not guaranteed.
(00:00):
Bienvenue au podcast pivot. Mon nom est Jonathan Léveillé,
président d'open mind technologies.
Le Podcast pivot est diffusé afin d'inspirer, d'éduquer les
entrepreneurs ayant une idée de produit technologique innovante,
communément appelée SAS, plateforme web, application web
ou mobile et qui désire maximiser leurs chances de
succès dans l'aventure. Partageons trucs, astuces,
(00:23):
histoire à succès ainsi que des apprentissages d'échecs
d'entrepreneurs de renom. Le Podcast pivot est une
présentation de dev Two. Co.com, filiale d'Open Main
Technologies. Dave tout seo.com aide
exclusivement les entrepreneurs ambitieux qui désirent
développer leur idée d'applications logicielles afin
d'en faire un succès d'envergure.
(00:45):
Avant de débuter, je vous inviteà vous abonner et à activer les
notifications sur votre plateforme de balado préférée
afin d'être avisée des nouveaux épisodes sur ce bon podcast.
Bonjour à tous. R, Bienvenue sur le podcast.
Cette semaine, j'ai le plaisir d'être en présence avec Mathieu
Martineau, le directeur général chez openmind technologies.
(01:07):
On a le plaisir de discuter d'intelligence artificielle et
surtout comment qu'on l'utilise à l'interne et différents outils
d'intelligence artificielle. Et qu'est-ce que ça donne au
quotidien? Autant on va séparer un peu
cette série là de discussions en2 podcasts, l'épisode 80
aujourd'hui où on va discuter pour notre pratique de
développement logiciel, nos développeurs à l'interne.
(01:29):
Comment? Qu'on applique l'intelligence
artificielle, là dans notre, dans nos méthodes de production.
Et on va faire également un 2e épisode, épisode 82, qu'on vous
invite à écouter, qui va parler de tout le reste de
l'organisation, des cas concretsd'utilisation qu'on fait de
l'intelligence artificielle. Donc on c'est. 2 podcasts sont
enregistrés en date du mois de juillet 2024.
(01:50):
Ça suit la série d'épisodes qu'on a fait dans le passé, dont
l'épisode numéro 16 du Podcast pivot où on parlait des cas
concrets avec Maxime. Moitié de chez l'évolution.
Concernant l'aspect d'utilisation de chat GT pour
les équipes de marketing, et on avait fait également un épisode
hors-série de 10 cas d'utilisation concrète pour chat
(02:11):
GP pour améliorer la productivité des développeurs.
On va voir, il y a encore beaucoup du contenu qu'on a fait
dans les anciens épisodes qui sont encore à jour, curieusement
parce que l'intelligence artificielle avance très vite,
mais ça va vous donner une bonnevue également.
Aujourd'hui, on en est où? En date de juillet 2024 donc
Mathieu, Bienvenue sur le podcast aujourd'hui, comment
vas-tu? Salut Joe, Ben très bien, merci
(02:35):
et toi? Oui, ça va super bien.
On est bien contents de pouvoir discuter avec toi aujourd'hui de
ce sujet. Rentrons directement dans dans
le vif du sujet pour faire un épisode quand même express.
Parlons un petit peu, mais plus où on en est aujourd'hui là chez
open mine, dans nos pratiques deproduction au niveau du
développement de logiciel avec l'intelligence artificielle.
(02:58):
Ouais, où nous en sommes aujourd'hui la première des
choses. On s'assure que tout le monde
dans l'équipe, incluant les nouveaux joueurs qui jouent
d'organisation dès leur entrée en poste et accès aux outils
d'intelligence artificielle pertinents pour leur
utilisation. Donc on pense entre autres à
bien sûr chat GT, mais pour les développeurs copilot de
(03:19):
Microsoft, Copilot chat get up copilot.
Et notamment pour le marketing également des outils de
génération d'images comme mythe Journey.
Et un coup qu'on a ces outils là, quels sont les lignes
directrices qu'on donne à nos gens en production par rapport à
l'utilisation de ces outils là? Ben ce qu'on va leur donner
(03:39):
comme ligne directrice d'abord, c'est des cas d'utilisation dans
lesquels ils peuvent se familiariser avec l'utilisation
de ces outils là, notamment obtenir des résumés de
différents échanges, les aider àréviser leur communication, que
ce soit en français ou en anglais dans certains cas, les
aider à faire des recherches aussi.
(04:00):
Là quand ils ont des bouts de code, que ce soit dans les dans
langages qui sont. On dit Legacy qui ont besoin de
pouvoir interpréter du code existant dans le but de leur
écriture au cours du code, qui ont besoin d'écrire avec des
librairies qui sont spécifiques à certains projets.
(04:21):
Ce que les aspects spécifiques qui ont été mentionnés aux
équipes par rapport à la confidentialité des données,
l'aspect. Privé également derrière tout
ça? Ce qu'on s'assurer d'abord,
c'est que les comptes qui vont utiliser là, que ce soit chat,
GTI ou copilot, soit géré par laplateforme de l'entreprise dans
(04:43):
lequel justement ils vont offrirles options requises pour gérer
la confidentialité des données d'entreprise.
Donc on cherche à à s utilise lecompte qui fourni par
l'entreprise plutôt que bien surleur compte personnel.
On cherche à éviter le shadow IT.
Et j'imagine à ce moment-là, on est capable d'activer dans les
(05:03):
comptes entreprises un aspect deconfidentialité des données pour
pas que l'information qui soit injectée ou plutôt qu'il soit
transmise dans les conversationsd'intelligence artificielle qui
soient injectées dans le modèle central qui est disponible au
grand public. Absolument là, c'est ce qui est
à faire là par les différentes plateformes quand on on utilise
la plateforme de gestion et les comptes entretien.
(05:24):
Et Mathieu, ce qu'on a un outil,qu'on un ou des outils qu'on
fournit à à nos équipes de production pour les aider à se
souvenir des différents cas d'utilisation de l'intelligence
artificielle dans leur quotidienet surtout de de réussir à en
faire une bonne utilisation quotidienne.
Oui, tout à fait. On a un aide mémoire qu'on a
fourni aux équipes de développeurs qui sera disponible
(05:46):
suite au podcast et qui est sur le site Internet, qui fournit
différents cas d'utilisation, notamment pour générer du code,
les supporter dans les cas de débogage, l'analyse de sécurité
sur un des segments de codes spécifiques, mais aussi la
génération de de matières pour l'interface ou l'expérience
(06:07):
utilisateur, le les tests de contrôle qualité aussi également
qui peuvent être générés à l'aide de l'intelligence
artificielle. Donc on rendra disponible ce
petit outil là d'habitude on utilise à l'interne, on vous le
rend disponible gratuitement à l'adresse open mindthe.com slash
Dev Chat GPTDEVCHATGPT les notes.
(06:30):
Vous avez également le lien dansles notes de l'épisode pour
télécharger gratuitement ce petit outil.
Là qu'on a distribué à l'interne, c'est sous forme de
d'aide-mémoire une page. Nous on les a fait plastifier,
on les laisse sur les bureaux, les différents bureaux ici
physiquement au Bureau, on a distribué des copies également
aux développeurs pour qu'ils puissent avoir constamment cette
cette petite aide mémoire là. Directement devant leurs yeux au
(06:53):
quotidien. Est-ce qu'il y a d'autres cas
d'utilisation que tu vois présentement et et à l'interne
en production? Tu parlais justement d'aide à
l'écriture, de cas d'aide à comprendre le code, de aide à la
documentation de l'assurance qualité.
As-tu vu d'autres cas en réel qui fait vraiment une différence
soit en qualité, soit en pertinence d'écriture de code,
soit en rapidité? Chacun de voir si tu as autre
(07:16):
chose sur le terrain. Mathieu, là en date aujourd'hui
en juillet à 2024. Oui, tout à fait.
Nos Product Owners vont aussi utiliser les outils liés à pour
rédiger leur user stories, pour valider les critères
d'acceptation d'une tâche notamment, et s'assurer que ça
soit complet et que ça couvre tous les angles et que ça couvre
(07:38):
aussi ce qu'on cherche à adresser dans la donne
définition. Là donc la définition complétion
pour s'assurer qu'un qui rédige une tâche, qu'elle soit
compréhensible pour le développeur qui doit ensuite
rédiger le code et remplir ces critères.
Et question que ça bouge beaucoup, l'intelligence
artificielle, je serais curieux qu'on puisse partager à
(07:59):
l'auditoire comment qu'on se structure à l'interne pour être
capable de bien surfer la vague et non d'être derrière la vague.
Euh comment qu'on fonctionne chez open mind pour être capable
de suivre les tendances, les tester et surtout de les
déployer dans nos équipes de promotion?
Ben ça se passe de différentes façons, notamment que ce soit
par things ou il y a un un canalde communication.
(08:20):
Les gens peuvent partager leur, leur découvertes, leurs
apprentissages, mais aussi à travers notre comité
d'amélioration continue qui peutpartager les bonnes pratiques
d'utilisation, ce qu'il voit, cequ'il entend dans les projets
aussi. Les mêlés matinales, les scrubs
aussi le matin, servent à partager les cas d'utilisation.
(08:41):
Et il y a toujours le le, le, lebon vieux écho de corridor, là,
quand les gens travaillent dans l'Open Space.
Qui ont plus atteint les d'utilisation.
As-tu une opinion, Mathieu, sur ce qui s'en vient devant nous
par rapport à l'utilisation de l'intelligence artificielle pour
les la la partie développement développeur de logiciels?
(09:03):
Oui Ben on le voit déjà avec lesmodèles qui ont évolué déjà
rapidement depuis la dernière année et demie, les 2 dernières
années. Donc l'amélioration des modèles
prend les choses de de plus en plus rapides, de plus en plus
sophistiquées. L'apprentissage aussi.
Des bases de code à travers les plateformes de Get up ou de
(09:26):
Stack Overflow vient enrichir également les les bases de
données. Mais si on peut envisager ce qui
s'en vient devant nous. Ici, c'est d'avoir des modèles
qui vont pouvoir être entraînés avec la base de code qui est
déjà existante dans un projet qu'on va pouvoir segmenter
spécifique par exemple à tel projet ou à tel client que les
(09:47):
données vont rester confidentielles dans
l'entreprise ou dans le bout de code qui va être segmenté, puis
de pouvoir apprendre en fonctionde ce qui est déjà existant, des
styles, des développeurs aussi également, ou des normes de
programmation qu'on pourra venirfaire apprendre.
Au modèle pour s'assurer que ça respecte nos nos propres requis
(10:11):
ou préférence, sortes de bonnes raisons ont été choisies dans
l'organisation, donc nos préférences.
Et et 2 petites anecdotes de discussions que j'ai eu avec des
des gens directement en production ici chez open mind.
La première, y a quelques jours,j'avais une activité qu'on
appelle le dîner du président. On amène quelques personnes
dîner de manière périodique et ça me permet de parler avec
(10:33):
faire le tour de l'entreprise. Là, à l'intérieur de 12 mois,
j'ai eu la chance de dîner avec tout le monde.
L'organisation et dans le dernier dîner du président que
que j'ai eu la chance de de faire avec la gang, un des
développeurs disait justement l'incroyable bon de rapidité que
ça lui permet d'avancer, mais aussi l'incroyable bon en termes
de qualité livrée au bout de la ligne.
(10:55):
Donc on voit qu'y a une accélération de la valeur qu'on
est capable de livrer en tant qu'équipe de développement, en
termes de quantité de fonctionnalités ou de de points
de sprint qu'on peut livrer, mais également les ce qu'on
appelle les rework, donc les taux de retravailler certains
problèmes ou certains certaines de code qui sont pas.
Est en diminution, donc c'est vraiment, je pense, intéressant
(11:16):
la tangente et la tendance dans laquelle ça s'en va.
Tout s'est appuyé par l'intelligence artificielle.
Ça fait qu'il y a des juniors qui sont capables des fois de
faire le travail d'un, d'un, d'un intermédiaire, un
intermédiaire, des fois pour avoir la force sur la capacité
d'un seigneur, donc on voit vraiment quelque chose
d'intéressant qui est en train de se passer derrière tout ça.
2e anecdote, je parlais avec uneautre personne qui était très
impliquée dans le comité d'amélioration continue et il me
(11:39):
mentionnait que les prochaines étapes seraient de prendre entre
autres toutes les les documents qui sont reliés à un projet.
L'analyse technique, l'analyse fonctionnelle, les requis au
final d'injecter ça dans un custom GPS au niveau chat GPS et
à ce moment-là quand il y a un développeur aurait des questions
qui seraient normalement alignées vers le chargé de
(12:01):
projet, on pourrait le faire à ce moment-là en questionnant le
costume de GPS pour avoir des réponses, ça pourrait être
exemple. Je comprends pas tel user Story
que je dois faire? Peux-tu m'éclairer et me donner
une mise en contexte plus large et après ça plus précise?
Et là chate GPT serait en mesurede venir.
Répondre de manière pratiquementéquivalente ou des fois mieux
(12:23):
que le chargé de projet parce qu'on peut retourner dans
l'ensemble de l'historique du projet et non juste dans la vue
que le chargé de projet a depuisqu'il est dans le projet.
Donc il y a cet aspect-là au niveau des costumes gptl là je
pense qui est en train d'être exploré chez Open Line qui je
pense va donner un effet de levier encore plus grande pour
accélérer la valeur livrée là dece qu'on peut faire avec avec
nos clients. Je vais rebondir sur sa première
(12:45):
anecdote justement ou ça permet aux développeurs de se
concentrer sur les problèmes quisont davantage complexes et de
gagner beaucoup de temps en en démarrage de projets.
Ils peuvent être de, de, de, de copilot, notamment générer les
chalets qui ont besoin pour démarrer une application, mais
spécifiquement ou au requis du projet.
(13:06):
Là donc s'il y a une connexion avec Google avec un portail 3
65, c'est toutes des instructions qui peuvent venir
donner. Ça permet aux juniors de
rapidement apprendre du code de qualité.
Ça permet de générer tout ce quiest requis pour l'interface aux
bases de données et après ça, çapermet aux développeurs de se
concentrer sur les problèmes quisont un peu plus puissant.
(13:29):
Qui requiert son son expertise tout en s assurant d'être
supporté par l'intelligence artificielle.
S'ils peuvent s'appuyer là sur des des cas pour des cas qui
sont plus complexes. Pour rebondir sur la 2e
anecdote, là où on veut s'en aller également, c'est de
pouvoir avoir des costumes GTA qui contiennent par exemple
(13:49):
toutes les guides d'utilisation.Notre Manuel du joueur pour
qu'un joueur qui viendrait d'entrer en poste, s'il y a une
question puisse la poser. Également un chat jupi qui
serait déjà connaissant de nos différents guides d'utilisation,
nos grandes politiques, nos pratiques et pouvoir lui donner
(14:10):
une une réponse, un nouveau joueur.
Bien sûr, on veut qu'il puisse parler à un autre humain, mais
dans certains cas, évidemment, on le sait, il y en a qui
peuvent être gênés, poser telle ou telle question.
Mais si l'intelligence artificielle elle est là, puis
elle est connaissance de nos bonnes pratiques.
Mais ça peut grandement faciliter l'intégration puis
répondre à plusieurs questions que que le joueur se pose.
(14:31):
Ce qu'on pourrait penser Mathieuà puis peut-être on est déjà là
qui va me dire mais quand qu'on fait l'opération de code review.
Donc pour ceux qui sont pas nécessairement habitués avec ça,
c'est un développeur va programmer ou écrire ces
différentes lignes de code pour réussir à répondre à ce qui a
été demandé par le client, puis dans son sprint de
développement. Et il doit y avoir une revue du
(14:52):
code par un pair pour être capable de dire oui, ça fait du
sens, ça répond bien aux fonctions qu'on veut remplir.
Et avant d'envoyer ce code là enproduction, donc en utilisation
réelle chez le client, il y a une revue du code qui est faite
par un pack qu'on appelle. Du code review, est ce qu'on
pourrait penser Mathieu à ce moment-là d'avoir éventuellement
un costume duvetées? Ou c'est peut-être même en en
exploration ici à l'intérieur à dire le le le début du code
(15:16):
review pourrait être faite par un costume GP à dire un est-ce
que ça respecte les bonnes pratiques de développement ou
les standards? Exemple à la OPEN mind qu'on
s'est donné et est ce que ça semble répondre bien au user
Story? Est ce que ça semble être
logique par rapport à l'ensembledu projet où est-ce qu'il y a un
risque que ça va causer d'autresproblèmes ailleurs?
Je serais curieux Mathieu d'avoir ton ton avis là-dessus
(15:37):
ou d'avoir ton son. Cloche là-dessus là.
C'est un exemple très intéressant que tu donnes Joe,
parce que c'est définitivement quelque chose qui qui est
envisageable et qui, dans une certaine échelle, est utilisée
par l'équipe. Notamment parce qu'on peut
demander de s'assurer que le boncode est-ce que il va répondre à
la fonctionnalité qu'il doit faire selon les requis?
(15:59):
Là où c'est intéressant où ça amène un enjeu qui est
intéressant, c'est qu'on on. On veut pas qu'une intelligence
artificielle vienne réviser ce que une intelligence
artificielle elle même a pu produire.
C'est pas qu'on peut pas faire du code review un développeur
qui régénérait un code par intelligence artificielle, puis
un autre développeur qui utilisel'intelligence artificielle pour
valider ce que l'intelligence artificielle elle même aurait
(16:21):
généré. Donc c'est une question que j'ai
pas encore une réponse complète aujourd'hui, mais c'est pour ça
qu'on s'assure dans nos équipes d'avoir des, des, des partages
de connaissances, des des, des, des formations à l'interne
aussi. Sur quelle est la bonne
utilisation, quelles sont les bonnes commandes qu'on doit
fournir, les bonnes requêtes qu'on doit fournir à une
intelligence artificielle. Pour s'assurer que elle soit
(16:44):
optimale et qu'on se pose la question aussi, dans quel cas
est ce qu'il faut pouvoir indiquer ou préciser, dans
quelle mesure est ce qu'un segment de code aurait été
généré par l'intelligence artificielle?
Ce qu'on voit par contre, c'est que si on regarde open AIA lancé
au grand public, c'est 5 niveaux.
(17:05):
De d'intelligence, d'intelligence artificielle.
Il y a un niveau qu'on appelle le niveau agent qui maintenant
bien défini et clair par par Open key qui est justement la
capacité ou du moins. De tendre vers la capacité de
l'intelligence artificielle à raisonner contre ses propres
réponses à lui-même. Donc on on peut penser à un à un
(17:28):
agent et ail éventuellement, quiva être capable d'aller chercher
une réponse du modèle. Exemple de Claude du modèle de
Jimmy du modèle de Anthropic estvenir contre valider ce que par
exemple chat GPT ou copilot aurait fait, et de valider avec
des juges externes si ça peut faire du sens.
Donc on on tranquillement, on voit qu'il y a cet aspect-là qui
(17:49):
s'en vient. De l'intelligence artificielle?
Il y a peut-être une possibilitééventuelle qu'on va être capable
de donner un peu plus de marge de manœuvre.
Reste que on on peut percevoir des fois que ça commence à
rendre l'humain un peu plus paresseux et des fois trop se
fier sur la réponse d'intelligence artificielle.
On peut créer des problèmes au bout de la ligne, on doit-on
doit encore rester très vigilanten tant qu humain, c'est un
(18:10):
outil qui nous aide à avoir des super-pouvoirs, mais qui parfois
peut nous créer des problèmes sion y fait trop confiance au bout
de la ligne, là. Moi ça serait d'être critique.
Ce que les développeurs ont ont ont leur expertise, ils peuvent
s'appuyer de l'intelligence artificielle mais doivent rester
critiques. Puis c'est pour ça qu'on
s'assure aussi de partager les bonnes pratiques à faire
l'information. C'est quoi qui est nouveau
modèle? Qui sont disponibles, les
(18:31):
nouveaux cas d'utilisation, les nouvelles commandes ou les
nouvelles requêtes qui doivent utiliser pour s'assurer toujours
maximiser l'utilisation de ces outils là qui évoluent rendement
dans le. Autre chose, Mathieu a mentionné
concernant l'utilisation de l'intelligence artificielle pour
nos équipes de développement, ici à l'interne pour nos
clients. Oui bien sûr Joe donc il y a
(18:53):
également pour l'écriture des tests automatisés où on peut
fournir également toujours à partir des requis, mais pour le
générer dans le langage de test qu'on utilise pour être en
mesure de de spécifier bien ce bout de code, là voici ce qu'il
doit faire et nous à écrire le test pour avoir la couverture
(19:13):
adéquate pour ce bout de code làle test en pouvant continuer
d'utiliser tout au long du cyclede développement et du cycle de
tests. De l'application donc,
l'intelligence artificielle seravenue nous aider à générer
également ce qui est requis pourles.
Très pertinent. Encore un autre exemple
(19:33):
justement d'augmentation de la qualité qui va être livrée au
bout de la ligne. Donc en s intégrant dans la
partie test on augmente la qualité effectivement.
Autre endroit Mathieu que tu voyais que on a un effet de
levier à l'heure actuelle en date de juillet 2024 dans nos
équipes de production de développement logiciel ou c'est
complet? C'est développeurs en ont
(19:54):
probablement plein d'autres, comme ça évolue constamment,
mais ça résume les grands thèmesque j'avais pour toi
aujourd'hui. Fantastique, merci beaucoup
Mathieu venir partager aujourd'hui avec nous.
Un peu qu'est-ce qui se passe ici à l'interne au niveau aide
et open mind, je vous rappelle fait télécharger le le petit
outil qu'on rend disponible gratuitement pour vous, open
(20:14):
mind.com slash Dev Chat GPT. On vous souhaite une bonne
utilisation de cet outil là, de la même manière que nous on
l'utilise à l'interne. Merci à tous d'être des nôtres
et je vous dis à la semaine prochaine.
Merci encore une fois d'avoir été des nôtres cette semaine,
nous produisons ce contenu gratuitement et avec amour pour
(20:36):
vous. Donc si vous pouvez en échange
prendre seulement un petit 10 secondes de votre temps pour
mettre sur pause et aller mettre5 étoiles sur Spotify et Apple
Podcast, ça fait toute la différence pour nous et ça nous
encourage à continuer. On est également curieux de
savoir ce que vous avez aimé et qu'est-ce que vous aimeriez
entendre sur le podcast dans lesprochains trimestres.
Donc n'hésitez pas à venir m'écrire directement sur
(20:57):
LinkedIn. Bon Ben j'entends l'éveiller et
je vous dis. À la prochaine?