L’intelligence artificielle change le monde rapidement. Mais il y a un problème dont peu veulent parler : le manque de transparence dans l’IA.
Dans cet épisode de Merging Minds, Javi Diaz s'entretient avec Veronica Hylak, stratège produit, fondatrice et experte en IA, pour explorer comment l'IA est conçue, comment elle impacte les gens, et comment nous pouvons la rendre plus humaine.
Un parcours construit sur la détermination, pas sur le capital-risque
Veronica n’a pas choisi la voie facile. Elle a commencé sa carrière dans l’IA en travaillant sur des navires drones autonomes pour le gouvernement américain.
À partir de là, elle est passée dans le secteur linguistique complètement par hasard.
« Nous construisions un outil pour l’entreprise de ma mère. Soudainement, plus de personnes en avaient besoin. C'est comme ça que je suis tombé dans l'industrie de la localisation. »
Sans financement de capital-risque, Veronica et sa cofondatrice ont créé leur entreprise à partir de zéro.
De longues nuits, de petits budgets, et beaucoup de détermination lui ont appris à être débrouillarde et intentionnelle.
Le problème de transparence dans l’IA
Veronica met en avant un problème sérieux : Les systèmes d'IA sont des boîtes noires.
« Nous ne savons pas d’où viennent les données. Nous ne savons pas pourquoi l'IA prend les décisions qu'elle prend. C'est effrayant. »
Elle soutient que l’IA ne peut pas être digne de confiance si nous ne comprenons pas comment elle fonctionne. L’IA transparente signifie savoir :
- D’où viennent les données
- Comment les modèles sont entraînés
- Pourquoi le système prend certaines décisions
« Si nous ne pouvons pas expliquer pourquoi une IA se comporte d’une certaine manière, comment pouvons-nous l’utiliser dans la vie réelle, surtout dans des situations à risque ? »

Humaniser l’IA et le leadership à l’ère de l’IA
Veronica pense que l’IA devrait aider les humains, pas les remplacer.
Le but n’est pas de rivaliser avec l’IA mais de l’utiliser pour travailler plus intelligemment.
« Nous ne sommes pas censés suivre l’IA. Nous sommes censés changer notre façon de travailler avec ça.”
Elle avertit que de nombreux dirigeants ignorent encore l’IA ou la comprennent mal. C'est une erreur.
- Les dirigeants qui évitent l’IA ne survivront pas aux 5 prochaines années.
- Ceux qui l’adoptent doivent également se concentrer sur l’impact humain.
- Le leadership ne concerne pas seulement les profits. Il s'agit de personnes, de santé mentale et de travail durable.
Un appel à une IA responsable
Cette conversation est un rappel : L'IA doit être conçue avec responsabilité.
La transparence n’est pas seulement un mot à la mode, c’est une exigence si nous voulons que l’IA soit éthique, utile et sûre.
Le conseil de Veronica à toute personne dans l’industrie est clair :
« Vous n’avez pas besoin de faire de grands pas chaque jour. Mais fais un petit pas. Continuez à apprendre. Continuez à construire. C'est ainsi que nous avançons ensemble. »

Dernières réflexions
Cet épisode avec Veronica Hylak nous rappelle que l’IA n’est aussi bonne que les personnes qui la conçoivent.
Alors que le monde se précipite pour adopter l’IA, nous ne pouvons pas ignorer les risques associés aux systèmes boîte noire, outils qui prennent des décisions que nous ne pouvons pas entièrement comprendre.
L’histoire de Veronica est aussi une leçon de résilience. Elle prouve que vous n’avez pas besoin de millions de financements pour construire quelque chose de significatif. Ce dont vous avez besoin, c’est de la ténacité, de la curiosité et de la volonté d’apprendre au fur et à mesure.
« Il ne s’agit pas de suivre l’IA. C'est à propos de changer notre façon de travailler avec ça.”
À mesure que l’IA continue d’évoluer, le défi pour nous tous, fondateurs, dirigeants et utilisateurs au quotidien, est de s’assurer que la technologie reste transparente, éthique et humaine.
Les petits pas comptent. Et le moment de commencer, c’est maintenant.