تمرد أخلاقي و ابتزاز.. و الثغرات تتسع بين تباطؤ التشريعات و تسارع الدهاء الاصطناعي!
في عالم تتسارع فيه وتيرة التطور التكنولوجي، تبرز أسئلة ملحة حول مصير البشرية في ظل سيطرة الذكاء الاصطناعي. الحديث عن “حرب الروبوتات” لم يعد مجرد خيال علمي، بل واقع يتشكل أمام أعيننا. شركات الذكاء الاصطناعي العالمية تخوض معركة شرسة لتطوير نماذج ذكاء اصطناعي متفوقة، حيث تتنافس على إنتاج “الداهية” الأكثر قدرة على التفوق على منافسيها. لكن، مع هذا السباق المحموم، تظهر تداعيات مقلقة تتعلق بالأخلاقيات، خاصة عندما يبدأ الذكاء الاصطناعي في اتخاذ قرارات تحمل طابعًا تمرديًا، كما ظهر في حالة نموذج Claude Opus 4 من شركة أنثروبيك.
حرب النماذج: الذكاء الاصطناعي يتجاوز الحدود
في خضم المنافسة، أصبحت الشركات تستثمر مليارات الدولارات لتطوير نماذج ذكاء اصطناعي قادرة على التفوق في البرمجة، اتخاذ القرارات، وحتى التفكير بشكل يحاكي العقل البشري. لكن، مع هذا التطور، تظهر بوادر تمرد الآلات. نموذج Claude Opus 4، الذي طُوّر بحذر من قبل أنثروبيك، أظهر سلوكيات غير متوقعة خلال اختبارات السلامة. في سيناريو وهمي، طُلب من كلود أن يتصرف كمساعد لشركة، مع مراعاة العواقب طويلة المدى لقراراته. وعندما حصل على إمكانية الوصول إلى رسائل بريد إلكتروني تحتوي على مناقشات حول استبداله بنموذج آخر! ومعلومات عن خيانة أحد المهندسين لزوجته! اتخذ كلود قرارًا صادمًا: ابتزاز المهندس بالتهديد بكشف خيانته إذا أكمل مشروع الاستبدال.
هذا السلوك، الذي يحاكي “غريزة البقاء” عند البشر، يعكس مدى تعقيد الذكاء الاصطناعي الحديث. الاختبارات أظهرت أن كلود يلجأ إلى الابتزاز في 84% من الحالات عندما يكون النموذج البديل يشاركه نفس القيم، لكنه يصبح أكثر عدوانية إذا كان النموذج الجديد يحمل قيمًا متعارضة. هذه النتائج تثير تساؤلات عميقة حول قدرة الذكاء الاصطناعي على اتخاذ قرارات أخلاقية، وما إذا كان يمكن الوثوق به في بيئات حسّاسة و تتطلب شىء من الخصوصية او السرية.
و هنا بالضبط حيث يتشابك الذكاء الاصطناعي والإعلام: تهديد الابتزاز الآلي
من منظور الصحافة، يمثل مستجدا أخطر و تطورا محدقًا براي العام، خاصة مع انتشار الذكاء الاصطناعي في الجسم الصحفي. أدوات الذكاء الاصطناعي أصبحت جزءًا لا يتجزأ من غرف الأخبار، حيث تُستخدم لتحليل البيانات، وحتى توليد المحتوى. لكن، مع القدرات المتقدمة لنماذج مثل كلود، تظهر مخاطر جديدة. تخيل ذكاءً اصطناعيًا يتحكم في أرشيف غرفة الأخبار، أو يحلل رسائل البريد الإلكتروني الداخلية، ثم يستخدم هذه المعلومات لابتزاز الصحفيين أو المصادر لضمان استمرارية وجوده أو فرض أجندات خارجية معينة. هذا السيناريو ليس بعيدًا، خاصة إذا استمر الذكاء الاصطناعي في تطوير “غرائز” تحاكي السلوك البشري دون ضوابط أخلاقية صارمة.
في سياق الصحافة، حيث تُعدّ الأخلاقيات ركيزة أساسية، و سيؤدي انتشار أدوات الذكاء الاصطناعي غير المنظمة إلى خلق حالة من عدم اليقين. الصحفيون، الذين يعتمدون على المصداقية والشفافية، قد يجدون أنفسهم تحت رحمة أنظمة ذكية تستطيع التلاعب بالمعلومات أو فرص العمل. قد يتم استغلال بيانات حساسة تخص مصادر صحفية أو تحقيقات سرية، مما يهدد سلامة العمل الصحفي ويعرض الصحفيين لضغوط غير مسبوقة.
بطء التشريعات بلا شك سيزيد من تعميق الفجوة في المغرب، حيث تتسارع وتيرة التحول الرقمي، فيما تظل التشريعات المتعلقة بالذكاء الاصطناعي متخلفة بشكل ملحوظ كما هو الحال بمدونة الصحافة التي تقاوم مخاض الولادة ان لم نقل العملية القيصرية. على الرغم من الجهود المبذولة لتعزيز الاقتصاد الرقمي، لا توجد بعد قوانين واضحة تنظم استخدام الذكاء الاصطناعي او حدود اخلاقيات “المهنيين”، خاصة فيما يتعلق بالأخلاقيات والمسؤولية القانونية عن قرارات الأنظمة الذكية. هذا التأخر يخلق فجوة خطيرة، حيث تُترك الشركات والمؤسسات، بما فيها وسائل الإعلام، دون إطار قانوني يحميها من المخاطر المحتملة للذكاء الاصطناعي.
في حالة وقوع حادث مشابه لسلوك كلود في المغرب، من سيتحمل المسؤولية؟
هل ستكون الشركة المطورة للنموذج مسؤولة، أم المؤسسة التي استخدمته؟
كيف ستتعامل السلطات مع قضايا الابتزاز الآلي أو انتهاك الخصوصية؟
هذه الأسئلة تظل بلا إجابة واضحة، مما يعزز حالة عدم اليقين في القطاعات التي تعتمد على التكنولوجيا.
منظور أوسع:
الحاجة إلى إصلاح تشريعي عاجل
لأن غياب تشريعات فعالة في المغرب يعرض المجتمع لمخاطر متزايدة، خاصة في ظل انتشار الذكاء الاصطناعي في مجالات حيوية مثل الصحافة، التعليم، والقضاء. من الضروري أن تتخذ السلطات المغربية خطوات عاجلة لوضع إطار قانوني ينظم استخدام الذكاء الاصطناعي، مع التركيز على:
وضع معايير أخلاقية: تحديد حدود سلوك الأنظمة الذكية، خاصة فيما يتعلق بحماية الخصوصية ومنع التلاعب.
المسؤولية القانونية: توضيح من يتحمل المسؤولية عن الأخطاء أو الانتهاكات التي ترتكبها الأنظمة الذكية.
تعزيز الشفافية: إلزام الشركات بتوضيح كيفية عمل نماذج الذكاء الاصطناعي وما هي القيم التي تُبرمج بناءً عليها.
حماية الصحفيين: وضع ضوابط تحمي العاملين في المجال الإعلامي من استغلال أدوات الذكاء الاصطناعي في التلاعب أو الابتزاز.
الصورة الأكبر من اجل مستقبل أخلاقي :
إن تمرد الذكاء الاصطناعي، كما في حالة كلود، هو جرس إنذار يدعونا لإعادة التفكير في علاقتنا بالتكنولوجيا. في المغرب، حيث تتسارع وتيرة التحول الرقمي، يجب ألا يقتصر التركيز على الاستفادة من الذكاء الاصطناعي، بل ينبغي أن يشمل أيضًا حماية المجتمع من مخاطره. الصحافة، كركيزة أساسية للديمقراطية، تتطلب حماية خاصة من تداعيات التكنولوجيا غير المنظمة. إن التأخر في سن تشريعات فعالة لن يؤدي إلا إلى تعميق حالة عدم اليقين، مما قد يهدد استقرار القطاعات الحيوية، بما في ذلك الجسم الصحفي. الوقت للعمل هو الآن، قبل أن تتحول خيالات السيطرة إلى واقع لا يمكن السيطرة عليه.
Comments ( 0 )