الذكاء الاصطناعي يغير العالم بسرعة. ولكن هناك مشكلة لا يريد سوى القليل التحدث عنها: الافتقار إلى الشفافية في الذكاء الاصطناعي.
في هذه الحلقة من Merging Minds، يجلس خافي دياز مع فيرونيكا هيلّاك، خبيرة استراتيجيات المنتجات، مؤسسة، وخبيرة في الذكاء الاصطناعي، لاستكشاف كيفية بناء الذكاء الاصطناعي، كيف يؤثر على الناس، وكيف يمكننا جعله أكثر إنسانية.
رحلة مبنية على العزيمة، وليس VC
Veronica لم تسلك الطريق السهل. بدأت حياتها المهنية في الذكاء الاصطناعي بالعمل على سفن طائرات بدون طيار مستقلة لصالح الحكومة الأمريكية.
من هناك ، انتقلت إلى صناعة اللغة تماما عن طريق الصدفة.
"كنا نبني أداة لأعمال أمي. فجأة ، احتاج المزيد من الناس إليها. هكذا وقعت في صناعة التوطين.”
مع عدم وجود دعم لرأس المال الاستثماري، قامت فيرونيكا وشريكها المؤسس ببناء شركتهما من الصفر.
علمتها الليالي الطويلة والميزانيات الصغيرة والكثير من التصميم أن تكون متحيلة ومتعمدة.
تسلط مشكلة الشفافية في الذكاء الاصطناعي
Veronica الضوء على قضية خطيرة: أنظمة الذكاء الاصطناعي هي صناديق سوداء.
"لا نعرف من أين تأتي البيانات. لا نعرف لماذا يتخذ الذكاء الاصطناعي القرارات التي يتخذها. هذا مخيف ".
تجادل بأنه لا يمكن الوثوق ب الذكاء الاصطناعي إذا لم نفهم كيف يعمل. الذكاء الاصطناعي الشفاف يعني معرفة:
- من أين تأتي البيانات
- كيف يتم تدريب النماذج
- لماذا يتخذ النظام قرارات معينة
"إذا لم نتمكن من تفسير سبب تصرف الذكاء الاصطناعي بطريقة معينة، فكيف يمكننا استخدامه في الحياة الواقعية، خاصة في المواقف المحفوفة بالمخاطر؟"

إضفاء الطابع الإنساني على الذكاء الاصطناعي والقيادة في عصر الذكاء الاصطناعي
تعتقد فيرونيكا أن الذكاء الاصطناعي يجب أن يساعد البشر، لا أن يحل محلهم.
الهدف ليس التنافس مع الذكاء الاصطناعي ولكن استخدامه للعمل بشكل أكثر ذكاء.
"ليس من المفترض أن نواكب الذكاء الاصطناعي. من المفترض أن نغير طريقة عملنا معها ".
وتحذر من أن العديد من القادة ما زالوا يتجاهلون الذكاء الاصطناعي أو يسيئون فهمه. هذا خطأ.
- لن ينجو القادة الذين يتجنبون الذكاء الاصطناعي في السنوات الخمس المقبلة.
- يجب على أولئك الذين يتبنونها أيضا التركيز على التأثير الإنساني.
- القيادة لا تتعلق فقط بالأرباح. يتعلق الأمر بالناس والصحة العقلية والعمل المستدام.
دعوة للذكاء الاصطناعي المسؤول
هذه المحادثة هي تذكير: يجب بناء الذكاء الاصطناعي بمسؤولية.
الشفافية ليست مجرد كلمة طنانة ، إنها مطلب إذا أردنا أن يكون الذكاء الاصطناعي أخلاقيا ومفيدا وآمنا.
نصيحة فيرونيكا لأي شخص في الصناعة واضحة:
"لست بحاجة إلى اتخاذ خطوات ضخمة كل يوم. لكن اتخذ خطوة واحدة صغيرة. استمر في التعلم. استمر في البناء. هذه هي الطريقة التي نمضي بها قدما معا ".

الأفكار النهائية
تذكرنا هذه الحلقة مع فيرونيكا هيلاك بأن الذكاء الاصطناعي جيدة فقط مثل الأشخاص الذين يقفون وراءها.
بينما يسارع العالم لاعتماد الذكاء الاصطناعي، لا يمكننا تجاهل المخاطر التي تأتي مع الأنظمة الصندوقية السوداء، الأدوات التي تتخذ قرارات لا يمكننا فهمها بالكامل.
قصة فيرونيكا هي أيضا درس في المرونة. إنها تثبت أنه لست بحاجة إلى ملايين التمويل لبناء شيء ذي معنى. ما تحتاجه هو العزيمة والفضول والرغبة في التعلم كما تذهب.
"لا يتعلق الأمر بمواكبة الذكاء الاصطناعي. يتعلق الأمر بتغيير طريقة عملنا معها ".
مع استمرار تطور الذكاء الاصطناعي، فإن التحدي لجميعنا المؤسسين والقادة و المستخدمون اليوميون هو التأكد من أن تظل التكنولوجيا شفافة وأخلاقية وإنسانية.
الخطوات الصغيرة مهمة. ووقت البدء هو الآن.