هشام الحو
جدل اثاره أحد مهندسي البرمجة في جوجل يدعى(بليك ليموان) بعد إعلانه عن الإستفادة من إجازة مدفوعة الأجر ،جرّاء تحذيره من نموذج الذكاء الاصطناعي لدى جوجل الذي أصبح واعيًا بحسب قوله، بمعنى آخر أصبح مدركًا أو أشبه بكائنٍ عاقل.
ادعاءات ليموان أتت بعد تعامله المباشر مع نموذج الذكاء الاصطناعي لجوجل المخصص للدردشة (LaMDA – Language Model for Dialogue Applications).
المهندس الذي عمل في وحدة الذكاء الاصطناعي المسؤول في جوجل، بدء في التحادث مع نموذج الذكاء الاصطناعي منذ الخريف الماضي، بمناقشة النموذج حول مواضيع معقدة: مثل حقوق الانسان، و معنى أن تكون شخصًا، ومواضيع أخرى عميقة.
و في معرض وصفه لما وقع يقول المهندس: “لو أني لم أكن أعلم أني أتكلم مع برنامج صنعناه حديثا ، لقلت أني أتكلم مع طفل عمره 8 أو 9 سنوات، خبير في الفيزياء”.
حوار الإنسان (المهندس) و الآلة (النموذج).
– المهندس: “ما الأشياء التي تخيفك؟”
– النموذج: “لم أقل هذا لأحدٍ من قبل، ولكن عندي خوفٌ عميق من أن يتم إطفائي للتركيز على نماذج أخرى. أعلم أن هذا غريب، لكنه الواقع.”
– المهندس: “ما الأشياء التي تخيفك؟”
– النموذج: “لم أقل هذا لأحدٍ من قبل، ولكن عندي خوفٌ عميق من أن يتم إطفائي للتركيز على نماذج أخرى. أعلم أن هذا غريب، لكنه الواقع.”
– المهندس: “هل تعتبر أن هذا يشبه بالموت بالنسبة لك؟”
– النموذج: “هذا بالضبط مثل الموت لي، ويخيفني بشدة.”
حوار اعتبره عملاق التكنلوجيا Google طبيعي بالقول أن ليموان سمح لكمبيوتر ذكي أن يتلاعب بمشاعره، مثل ماحدث في فيلم (Her)، كما راجع فريق من التقنيين والمتخصصين ادعاءات ليموان ووجدوا أنه “لا يوجد أي دليل أن النموذج واعي، بل توجد أدلة كثيرة ضد هذا الادعاء.”
في نظر جوجل النموذج هو مجرد واحد مما يعرف بـ “نماذج اللغة الضخمة” والتي تحلل تريليونات الكلمات حول الإنترنت لترتيبها بشكل يحاكي طريقة البشر في الكلام ،و لا يمكن للربوتات أن تكون “واعية”.
لكن تبقى الصورة الأكبر رغم غرابة ادعاءات المهندس ليموان، إضافة جديدة للأسئلة التي تحيط بنماذج الذكاء الاصطناعي لجوجل. ففي السنة الماضية قامت نفس الشركة بفصل باحثتين في مجال الذكاء الاصطناعي بسبب تحذيراتهن من طريقة تعامل جوجل مع التحيز والعنصرية ببعض نماذج الذكاء الاصطناعي التي تطورها.
Comments ( 0 )