علوم وتكنولوجيا

تقرير لحساب الخارجية الأمريكية يحذر من مخاطر تدميرية للذكاء الاصطناعي

خبير: الذكاء الاصطناعي قد يجلب مخاطر جسيمة- cc0
حذر تقرير تم إعداده بتكليف من وزارة الخارجية الأمريكية من مخاطر جسيمة على الجنس البشري يمكن أن يشكلها الذكاء الاصطناعي.

واستند التقرير إلى مقابلات مع أكثر من 200 شخص على مدار أكثر من عام، بمن في ذلك كبار المسؤولين التنفيذيين من شركات ذكاء اصطناعي رائدة، وباحثون في مجال الأمن السيبراني، وخبراء أسلحة الدمار الشامل، ومسؤولو الأمن القومي داخل الحكومة الأمريكية.

ويشير التقرير، الذي صدر هذا الأسبوع من قبل "غلادستون للذكاء الاصطناعي"، بشكل قاطع إلى أن أنظمة الذكاء الاصطناعي الأكثر تقدما يمكن، في أسوأ الحالات، "أن تشكل تهديدا على مستوى الانقراض للجنس البشري"، بحسب شبكة "سي إن إن" الإخبارية الأمريكية.

ونقلت الشبكة عن جيريمي هاريس، الرئيس التنفيذي والمؤسس المشارك لـ "غلادستون للذكاء الاصطناعي"، الثلاثاء، قوله: "الذكاء الاصطناعي هو بالفعل تكنولوجيا تحويلية اقتصاديًا.. يمكن أن يسمح لنا بعلاج الأمراض، وتحقيق الاكتشافات العلمية، والتغلب على التحديات التي اعتقدنا ذات يوم أنه لا يمكن التغلب عليها".

وأضاف هاريس: "لكنه قد يجلب أيضًا مخاطر جسيمة، بما في ذلك المخاطر الكارثية، التي يجب أن نكون على دراية بها". وتابع "تشير مجموعة متزايدة من الأدلة - بما في ذلك الأبحاث والتحليلات التجريبية المنشورة في أهم مؤتمرات الذكاء الاصطناعي في العالم - إلى أنه فوق عتبة معينة من القدرة، من المحتمل أن تصبح أنظمة الذكاء الاصطناعي خارجة عن السيطرة".

ويحذر التقرير من خطرين رئيسيين يشكلهما الذكاء الاصطناعي على نطاق واسع.

أولاً، أن أنظمة الذكاء الاصطناعي الأكثر تقدماً يمكن تسليحها لإحداث أضرار لا يمكن إصلاحها. وثانياً، أن هناك مخاوف خاصة داخل مختبرات الذكاء الاصطناعي من أنها قد "تفقد السيطرة" في مرحلة ما على الأنظمة ذاتها التي تعمل على تطويرها، مع "عواقب مدمرة محتملة على الأمن العالمي".

وقال التقرير إن "صعود الذكاء الاصطناعي والذكاء العام الاصطناعي لديه القدرة على زعزعة استقرار الأمن العالمي بطرق تذكرنا بإدخال الأسلحة النووية"، مضيفًا أن هناك خطر حدوث "سباق تسلح" للذكاء الاصطناعي، والصراع، و"حوادث مميتة بحجم أسلحة الدمار الشامل".

ويدعو تقرير "غلادستون للذكاء الاصطناعي" إلى اتخاذ خطوات جديدة جذرية تهدف إلى مواجهة هذا التهديد، بما في ذلك إطلاق وكالة جديدة للذكاء الاصطناعي، وفرض ضمانات تنظيمية "طارئة" وقيود على مقدار قوة الكمبيوتر، التي يمكن استخدامها لتدريب نماذج الذكاء الاصطناعي.

وكتب المؤلفون في التقرير: "هناك حاجة واضحة وعاجلة لتدخل حكومة الولايات المتحدة".

وقال التقرير إن الضغوط التنافسية تدفع الشركات إلى تسريع تطوير الذكاء الاصطناعي "على حساب السلامة والأمن"، ما يزيد من احتمال "سرقة" أنظمة الذكاء الاصطناعي الأكثر تقدما، و"تسليحها" ضد الولايات المتحدة.

وتضاف هذه الاستنتاجات إلى قائمة متزايدة من التحذيرات بشأن المخاطر الوجودية التي يفرضها الذكاء الاصطناعي، بما في ذلك حتى من بعض أقوى الشخصيات في الصناعة.

وبحسب التقرير، فقد "أعرب أحد الأفراد في أحد مختبرات الذكاء الاصطناعي المعروفة عن وجهة نظر مفادها أنه إذا تم إطلاق نموذج محدد من الجيل التالي للذكاء الاصطناعي دون مقيدات في الوصول، فسيكون ذلك" سيئًا للغاية "، لأن القدرة المقنعة المحتملة للنموذج يمكنها "كسر الديمقراطية" إذا تم الاستفادة منها في مجالات مثل التدخل في الانتخابات أو التلاعب بالناخبين.

الأكثر قراءة اليوم
الأكثر قراءة في أسبوع