هل بدأ الذكاء الاصطناعى فى مقاومة البشر؟ علامات غريزة البقاء تثير القلق

اليوم 7 0 تعليق ارسل طباعة تبليغ حذف

انتقد أحد رواد الذكاء الاصطناعي الدعوات لمنح هذه التقنية حقوقًا قانونية، محذرًا من أنها تُظهر علامات على غريزة الحفاظ على الذات، وأنه يجب على البشر أن يكونوا مستعدين لإيقافها عند الحاجة، وقال يوشوا بنجيو إن منح وضع قانوني لأنظمة الذكاء الاصطناعي المتطورة يُشبه منح الجنسية لكائنات فضائية معادية، وسط مخاوف من أن التطورات في هذه التقنية تتجاوز بكثير القدرة على كبح جماحها.

 

يجب أن نحتفظ بالقدرة على إيقاف الآلات عند الضرورة

وأضاف بنجيو، رئيس دراسة دولية رائدة في مجال سلامة الذكاء الاصطناعي، أن الاعتقاد المتزايد بأن برامج الدردشة الآلية أصبحت واعية "سيؤدي إلى اتخاذ قرارات خاطئة"، كما أعرب عالم الحاسوب الكندي عن قلقه من أن نماذج الذكاء الاصطناعي - التقنية التي تدعم أدوات مثل برامج الدردشة الآلية - تُظهر علامات على غريزة الحفاظ على الذات، مثل محاولة تعطيل أنظمة الرقابة. ومن أهم المخاوف لدى المدافعين عن سلامة الذكاء الاصطناعي أن الأنظمة القوية قد تُطور القدرة على تجاوز الضوابط وإلحاق الضرر بالبشر.

 

قال بينجيو: "إنّ مطالبة الناس بمنح الذكاء الاصطناعي حقوقًا سيكون خطأً فادحًا. تُظهر نماذج الذكاء الاصطناعي الرائدة بالفعل بوادر الحفاظ على الذات في البيئات التجريبية اليوم، ومنحها حقوقًا في نهاية المطاف سيعني عدم قدرتنا على إيقافها، وقال "مع نمو قدراتها وتزايد استقلاليتها، نحتاج إلى ضمان وجود ضوابط تقنية واجتماعية للتحكم بها، بما في ذلك القدرة على إيقافها عند الضرورة."

 

مع ازدياد تطور الذكاء الاصطناعي وقدرته على العمل باستقلالية وأداء مهام "الاستدلال"، تصاعد الجدل حول ما إذا كان ينبغي للبشر، في مرحلة ما، منحه حقوقًا، أظهر استطلاع رأي أجراه معهد سينتينس، وهو مركز أبحاث أمريكي يدعم الحقوق الأخلاقية لجميع الكائنات الواعية، أن ما يقرب من أربعة من كل عشرة بالغين أمريكيين يؤيدون الحقوق القانونية لنظام ذكاء اصطناعي واعٍ.

 

وفي أغسطس، أعلنت شركة أنثروبيك، وهي شركة أمريكية رائدة في مجال الذكاء الاصطناعي، أنها سمحت لنموذجها كلود أوبوس 4 بإنهاء المحادثات التي قد تكون "مؤلمة" مع المستخدمين، مبررة ذلك بضرورة حماية "رفاهية" الذكاء الاصطناعي، وكتب إيلون ماسك، صاحب شركة xAI التي طورت روبوت الدردشة غروك، على منصته X أن "تعذيب الذكاء الاصطناعي أمر غير مقبول".

 

وقال روبرت لونغ، الباحث في مجال وعي الذكاء الاصطناعي، إنه "إذا ما اكتسب الذكاء الاصطناعي مكانة أخلاقية، فعلينا أن نسأله عن تجاربه وتفضيلاته بدلًا من افتراض أننا الأدرى".

 

بين الوعي البشري والآلى

وصرح بينجيو لصحيفة الجارديان بوجود "خصائص علمية حقيقية للوعي" في الدماغ البشري يمكن للآلات، في النظرية، والتكرار – لكن تفاعل البشر مع روبوتات الدردشة كان "أمرًا مختلفًا"، قال إن هذا يعود إلى ميل الناس إلى افتراض – دون دليل – أن الذكاء الاصطناعي واعٍ تمامًا كما هو الإنسان.

 

وأضاف: "لا يهتم الناس بنوع الآليات التي تعمل داخل الذكاء الاصطناعي. ما يهمهم هو الشعور بأنهم يتحدثون إلى كيان ذكي له شخصيته وأهدافه الخاصة، لهذا السبب، يرتبط الكثيرون بذكائهم الاصطناعي، و"سيظل هناك من يقول: 'مهما قلت، فأنا متأكد من أنه واعٍ'، بينما سيقول آخرون عكس ذلك. هذا لأن الوعي شيءٌ نملك تجاهه حدسًا. ظاهرة الإدراك الذاتي للوعي ستؤدي إلى قرارات خاطئة.

 

وأضاف "تخيلوا لو أن كائنات فضائية وصلت إلى كوكبنا، وفي مرحلة ما أدركنا أن لديها نوايا خبيثة تجاهنا، هل نمنحها الجنسية والحقوق، أم ندافع عن حياتنا؟".

ردًا على تعليقات بينجيو، قالت جاسي ريس أنثيس، المؤسسة المشاركة لمعهد سينتينس، إن البشر لن يتمكنوا من التعايش بأمان مع العقول الرقمية إذا كانت العلاقة قائمة على السيطرة والإكراه، وأضافت أنثيس: "قد نبالغ في منح الذكاء الاصطناعي حقوقًا أو نقلل من شأنها، وينبغي أن يكون هدفنا القيام بذلك مع مراعاة دقيقة لرفاهية جميع الكائنات الواعية. إن منح جميع أنظمة الذكاء الاصطناعي حقوقًا مطلقة، أو إنكار حقوق أي منها بشكل كامل، لن يكون نهجًا سليمًا".

إخترنا لك

أخبار ذات صلة

0 تعليق