L’intelligence artificielle change rapidement le monde. Mais il y a un problème dont peu de gens veulent parler : le manque de transparence de l’IA.
Dans cet épisode de Merging Minds, Javi Diaz s'entretient avec Veronica Hylak, stratège produit, fondatrice et experte en IA, pour explorer comment l'IA est conçue, comment elle impacte les gens et comment nous pouvons la rendre plus humaine.
Un voyage construit sur le courage, pas sur le VC
Veronica n’a pas choisi la voie facile. Elle a commencé sa carrière dans l’IA en travaillant sur des navires drones autonomes pour le gouvernement américain.
À partir de là, elle est passée dans l’industrie de la langue complètement par accident.
« Nous étions en train de construire un outil pour l’entreprise de ma mère. Soudain, plus de gens en avaient besoin. C’est ainsi que je suis tombé dans le secteur de la localisation.”
Sans soutien en capital-risque, Veronica et son cofondateur ont créé leur entreprise à partir de zéro.
De longues nuits, des budgets minuscules et beaucoup de détermination lui ont appris à être débrouillarde et intentionnelle.
Le problème de transparence dans l’IA
Veronica met en évidence un problème sérieux : Les systèmes d’IA sont des boîtes noires.
« Nous ne savons pas d’où viennent les données. Nous ne savons pas pourquoi l’IA prend les décisions qu’elle prend. C’est effrayant.”
Elle soutient que l’on ne peut pas faire confiance à l’IA si nous ne comprenons pas comment elle fonctionne. L’IA transparente c’est savoir :
- D’où viennent les données
- Comment les modèles sont entraînés
- Pourquoi le système prend certaines décisions
« Si nous ne pouvons pas expliquer pourquoi une IA se comporte d’une certaine manière, comment pouvons-nous l’utiliser dans la vie réelle, en particulier dans des situations à risque ? »

Humaniser l’IA et le leadership à l’ère de l’IA
Veronica croit que l’IA devrait aider les humains, pas les remplacer.
L’objectif n’est pas de rivaliser avec l’IA, mais de l’utiliser pour travailler plus intelligemment.
« Nous ne sommes pas censés suivre l’IA. Nous sommes censés changer notre façon de travailler avec.”
Elle prévient que de nombreux dirigeants ignorent encore l’IA ou la comprennent mal. C’est une erreur.
- Les dirigeants qui évitent l’IA ne survivront pas aux 5 prochaines années.
- Ceux qui l’adoptent doivent également se concentrer sur l’impact humain.
- Le leadership n’est pas seulement une question de profits. Il s’agit de personnes, de santé mentale et de travail durable.
Un appel pour une IA responsable
Cette conversation est un rappel : L'IA doit être construite avec responsabilité.
La transparence n’est pas seulement un mot à la mode, c’est une exigence si nous voulons que l’IA soit éthique, utile et sûre.
Le conseil de Veronica à tous les acteurs de l’industrie est clair :
« Vous n’avez pas besoin de faire de grands pas tous les jours. Mais faites un petit pas. Continuez à apprendre. Continuez à construire. C’est ainsi que nous avançons ensemble.”

Réflexions finales
Cet épisode avec Veronica Hylak nous rappelle que l’IA n’est aussi bonne que les personnes qui la conçoivent.
Alors que le monde se précipite pour adopter l’IA, nous ne pouvons pas ignorer les risques associés aux systèmes boîte noire, outils qui prennent des décisions que nous ne pouvons pas entièrement comprendre.
L’histoire de Veronica est aussi une leçon de résilience. Elle prouve que vous n’avez pas besoin de millions de financement pour construire quelque chose de significatif. Ce dont vous avez besoin, c’est de courage, de curiosité et de la volonté d’apprendre au fur et à mesure.
« Il ne s’agit pas de suivre le rythme de l’IA. Il s’agit de changer la façon dont nous travaillons avec.”
À mesure que l’IA continue d’évoluer, le défi pour nous tous, fondateurs, dirigeants et utilisateurs quotidiens, est de s’assurer que la technologie reste transparente, éthique et humaine.
Les petits pas comptent. Et le moment est venu de commencer.