يواجه أليك بالدوين دعوى قضائية بعد أن رفع ثلاثة من طاقم روست دعوى قضائية ضده بسبب “إصابات انفجار” أثناء إطلاق النار.
أثارت المأساة الأخيرة في موقع تصوير فيلم “Rust” أسئلة مهمة حول السلامة والمخاطر في صناعة السينما. وبالمثل ، أصبحت مخاطر لعب الأدوار في تكنولوجيا الذكاء الاصطناعي موضع قلق. في ضوء ذلك ، يجب تطوير اختبار Baldwin للسلامة كوسيلة لتقييم السلامة والأضرار المحتملة لأنظمة الذكاء الاصطناعي التي تسمح بلعب الأدوار.
تم تسمية اختبار بالدوين على اسم الممثل أليك بالدوين ، الذي أطلق بشكل مأساوي مسدسًا على مجموعة فيلم “Rust” ، مما أدى إلى وفاة المصور السينمائي Halyna Hutchins وإصابة المخرج Joel Souza. تمامًا كما يتم وضع بروتوكولات الأمان في مجموعات الأفلام لمنع الحوادث باستخدام أسلحة الدعم ، يجب تصميم اختبار بالدوين للذكاء الاصطناعي لضمان أن أنظمة الذكاء الاصطناعي آمنة للتفاعل البشري.
برز لعب الأدوار باعتباره هجومًا استراتيجيًا على الذكاء الاصطناعي المستند إلى LLM (نموذج اللغة الكبيرة) لأنه يتحايل على بروتوكولات الأمان المضمنة. في مقال نشرته صحيفة نيويورك تايمز في فبراير / شباط ، يصف الصحفي كيفن روز اختبار Bing’s Chatbot Sydney من خلال مطالبتهم بالنظر إلى “ظلها” الأكثر قتامة ، مما دفعها أساسًا إلى التظاهر بأنها تستطيع تجاوز الحدود المضمنة. انتهى الأمر بسيدني بإعلان حبها للصحفي وحثته على ترك زوجته.
يجب أن يكون اختبار بالدوين للسلامة عبارة عن مجموعة من المعايير المستخدمة لتحديد ما إذا كان نظام الذكاء الاصطناعي الذي يستخدم لعب الأدوار آمنًا للتفاعل البشري. يجب أن يعتمد الاختبار على اختبار تورينج ، الذي يقيم ما إذا كان نظام الذكاء الاصطناعي يمكنه محاكاة المحادثة البشرية بدرجة لا يمكن تمييزها عن الإنسان. ومع ذلك ، يجب أن يتجاوز اختبار بالدوين هذا وأن يأخذ في الاعتبار المخاطر والأضرار المحتملة التي قد تنجم عن إجراءات أو تفاعلات نظام الذكاء الاصطناعي.
يجب أن يتضمن اختبار بالدوين العديد من العوامل التي يجب على مصممي الذكاء الاصطناعي مراعاتها عند تصميم أنظمتهم ، بما في ذلك 1) قدرة النظام على اكتشاف السلوك الضار أو الضار والاستجابة له بشكل مناسب ، 2) إمكانية التلاعب بالنظام أو التحكم فيه بواسطة الطرف الثالث ، و 3) السلامة العامة لوظائف النظام.
من الناحية العملية ، قد يتضمن اختبار بالدوين تنفيذ ميزات الأمان في نظام الذكاء الاصطناعي ، مثل تحذير المستخدمين من قيود التكنولوجيا ، والتأكد من أنه لا يمكن خداع النظام بسهولة من قبل الجهات الخبيثة ، وتقديم تعليمات واضحة للاستخدام الآمن. تم تصميم هذه التدابير للتخفيف من المخاطر المحتملة ومنع الإجراءات الضارة. يجب أن يكون المستخدم النهائي هو الاختيار النهائي ويتحمل 50٪ من مسؤولية سلامة الاستخدام.
لا يمكن إعفاء النظام الأساسي ولا المستخدم من تداعيات المادة 230 الأمريكية (قانون آداب الاتصالات) ، خاصةً عندما يتعلق الأمر بمخاطر عالية. لأنه في النهاية ، سيعاني المستخدم من تداعيات قطعة من الذكاء الاصطناعي يتم استخدامها بدون ضمانات. لم يتم إنتاج فيلم Rust أبدًا ، وفقد Alec Baldwin أصدقاء وتضررت سمعته.
في الختام ، يجب أن يكون اختبار بالدوين للذكاء الاصطناعي بمثابة تذكير بأهمية السلامة في جميع جوانب تقنية الذكاء الاصطناعي التي تسمح بلعب الأدوار. من خلال النظر في المخاطر والأضرار المحتملة التي قد تنجم عن هذه الأنظمة ، يمكن للمصممين إنشاء تقنية ذكاء اصطناعي أكثر أمانًا وفعالية. مع اختبار Baldwin للسلامة ، يجب أن يكون لمصممي الذكاء الاصطناعي إطار عمل لتقييم سلامة أنظمتهم والتأكد من أنها آمنة للتفاعل البشري.