“المارد” تكنلوجيا الذكاء الاصطناعي صعبة التحكم .
تزايدت حالة القلق وتكاثرت رسائل التحذير من خطورة تطور تقنيات الذكاء الاصطناعي، وأضحى هذا الموضوع حديث الساعة في العديد من الأماكن ووسائل التواصل مع مطلع 2023 إلى حدود الساعة.
كبير الذكاء الاصطناعي و الملقب بابو AI يخرج عن صمته:
من بين الأصوات التي أثارت الجدل في هذا الصدد، أعلن جيفري هينتون، المخترع الرائد للتقنيات التي تدعم نظام تشات جي بي تي (ChatGPT) وغيرها من نظم الذكاء الاصطناعي سريعة التطور، عن مخاوفه الكبيرة ودعى الى توقيف تطوير هذه التقنية؛ لما قد تسببه من أضرار بالغة في حال عدم تقييم الخطورة المُحتملة لها.
كما أكد جيفري هينتون عن قرار الرحيل عن شركة جوجل التي عمل فيها لمدة عشر سنوات؛ ليتمكن من التحدث بحرية عن مخاطر الذكاء الاصطناعي دون القلق بشأن التأثير على هذه الشركة، وفقًا لمقابلة مع صحيفة نيويورك تايمز.
القلق؟ لماذا الآن ؟
تزايد انتشار المحتو المعد بواسطة الذكاء الاصطناعي، مما يُصعب التمييز بين المحتوى الحقيقي والمفبرك، ويعرّض الكثيرين للخداع و وسرقت البيانات.
تعطيل سوق العمل وتفاقم مشكلة البطالة واستخدام التقنية في نشر “جنود الروبوت”، كما يسميها جيفري هينتون، في العمل.
تسابق شركات التقنية العملاقة مثل جوجل ومايكروسوفت وغيرها، في هذا المجال، من دون أي قيود أخلاقية، ينذر بالخطر.
فبخلاف السلاح النووي الذي يمكن مراقبة تطويره و حصر انشطار ذراته في حدود المصانع المخصصة و الاتفاقيات الدولية، يصعب تعقب التطوير في الذكاء الاصطناعي، مهما قيل عن خطورة الذكاء الاصطناعي، فهو أقرب ما يكون لمارد يصعب السيطرة عليه.
منظور خاص :
من خلال تجربة إحدى التطبيقات المتاحة بدون اشتراك و المزودة بتقنية الذكاء الاصطناعي لاحظنا أن بعض الأجوبة استعانة بمعطيات سبق أن نشرت بالصحيفة ،و هذا ما أكدته شركة غوغل بعد سحب مجموعة من التطبيقات المتاحة عل متجره و التي تشكل خطراً على المستخدم عبر الوصول إلى للبيانات الخاصة ،بعبارة أخرى للذكاء الاصطناعي قدرة خارقة على احتراف الجاسوسية.
Comments ( 0 )