الجمعة  22 تشرين الثاني 2024
LOGO
اشترك في خدمة الواتساب

خبير رفيع المستوى يحذر من خطورة تطوير أنظمة الذكاء الاصطناعي

2023-04-04 12:24:57 PM
خبير رفيع المستوى يحذر من خطورة تطوير أنظمة الذكاء الاصطناعي
تعبيرية

الحدث تكنوبوك

أصدر باحث رفيع المستوى في الذكاء الصطناعي تحذيرا بشأن احتمال حدوث انقراض عالمي  يمكن أن تجلبه تكنولوجيا الذكاء الاصطناعي الفائقة.

وأشار إلى أن إيقاف تطوير أنظمة الذكاء الاصطناعي المتقدمة حول العالم ومعاقبة من ينتهك الحظر بقسوة، هي الطريقة الوحيدة لإنقاذ البشرية من الانقراض.

وادعى إليعازر يودكوفسكي، وهو باحث رائد في مجال الذكاء الاصطناعي، والمؤسس المشارك لمعهد أبحاث ذكاء الآلة (MIRI)، أن "كل شخص على وجه الأرض سيموت" ما لم نوقف تطوير أنظمة ذكاء خارقة.

وأشار إلى أنه يعرف بالضبط مدى "خطورة هذه التكنولوجيا المروعة".

وفي مقال ضمن ركن "رأي" لمجلة "تايم" نُشر يوم الأربعاء الماضي، أوضح يودكوفسكي (43 عاما) سبب عدم توقيعه على عريضة تدعو "جميع مختبرات الذكاء الاصطناعي إلى التوقف فورا لستة أشهر على الأقل، على تدريب أنظمة للذكاء الاصطناعي أكثر قوة من GPT-4 (وهو نموذج لغة كبير متعدد الوسائط، أصدرته شركة OpenAI في وقت سابق من هذا الشهر)".

فقال يودكوفسكي إن العريضة التي قدمها خبراء بارزون من شركة OpenAI في 29 مارس، والتي وقعها أمثال إيلون ماسك ومؤسس شركة "آبل" ستيف وزنياك، كانت "تطلب القليل جدا لحل المشكلة التي يطرحها التطور السريع وغير المنضبط للذكاء الاصطناعي".

واعتبر يودكوفسكي أن التهديد كبير لدرجة أنه يجادل بأن الانقراض بواسطة الذكاء الاصطناعي يجب أن "يعد أولوية تسبق منع تبادل ضربات نووية كامل".

وحذر من أن "النتيجة الأكثر ترجيحا لبناء ذكاء اصطناعي خارق للبشر .. هو أن كل شخص على وجه الأرض سيموت حرفيا".

وقال إن البقاء على قيد الحياة مع نظام كمبيوتر "لا يهتم بنا ولا بالحياة الواعية بشكل عام" يتطلب "الدقة والإعداد والرؤى العلمية الجديدة" التي تفتقر إليها البشرية في الوقت الحالي ومن غير المرجح أن تحصل عليها في المستقبل المنظور.

ويعترف يودكوفسكي أننا لسنا مستعدين لتعليم الذكاء الاصطناعي كيف يهتم لأننا "لا نعرف حاليا كيف".

وبدلا من ذلك، فإن الحقيقة الصارخة هي أنك في الروبوت "مكون من ذرات يمكن أن يستخدمها الروبوت لشيء آخر. وإذا قام شخص ما ببناء ذكاء اصطناعي قوي للغاية، في ظل الظروف الحالية، أتوقع أن يموت كل فرد من الجنس البشري وجميع أشكال الحياة البيولوجية على الأرض بعد ذلك بوقت قصير".

وكشف يودكوفسكي أن "الذكاء الاصطناعي الشديد الذكاء بدرجة كافية لن يظل محصورا بأجهزة الكمبيوتر لفترة طويلة". وأوضح أن ما يعنيه هذا هو أنه يمكن للعلماء عن طريق الخطأ إنشاء "عقول رقمية واعية حقا" ما يخلق معضلات أخلاقية مثل أن يكون لهذه الكائنات (الرقمية) الواعية حقوقها ولا يمكن امتلاكها.

ووفقا لهذا الباحث الرائد، يجب على الفور فرض حظر عالمي وغير محدود على الدورات التدريبية الرئيسية الجديدة في مجال الذكاء الاصطناعي. وشدد على أنه "لا يمكن أن يكون هناك استثناءات، بما في ذلك الحكومات أو الجيوش".

وأصر يودكوسكي على ضرورة توقيع صفقات دولية لوضع حد أقصى لمقدار قوة الحوسبة التي يمكن لأي شخص استخدامها في تدريب مثل هذه الأنظمة.

المصدر: RT