أصدرت منظمة مكرسة للتطوير الآمن للذكاء الاصطناعي “ورقة بحثية متقدمة” قالت إنها ستساعد البشر على التحكم بشكل أفضل في التكنولوجيا أثناء انتشارها.
وقال دان هندريكس، مدير مركز سلامة الذكاء الاصطناعي، لشبكة فوكس نيوز ديجيتال: “لا يمكننا أن نثق في الذكاء الاصطناعي إذا كنا لا نعرف ما يفكرون فيه أو كيف يعملون في الداخل”.
أدلى هندريكس بهذه التعليقات بعد أن أصدر مركز سلامة الذكاء الاصطناعي (CAIS) ورقة بحثية هذا الأسبوع تغوص في الأعمال الداخلية لعقل أنظمة الذكاء الاصطناعي، وتبحث عن طرق يمكن للبشر من خلالها فهم تقنيات الذكاء الاصطناعي والتحكم فيها وفهمها بشكل أفضل والتخفيف من بعض المخاطر. يشكلون.
قد تستخدم شركة META فيسبوك وInstagram الخاصين بك “لإطعام وحش” التكنولوجيا الجديدة
وفقًا لـ CAIS، أظهرت الورقة طرقًا يمكن للبشر التحكم بها واكتشافها عندما تقول أنظمة الذكاء الاصطناعي حقائق أو أكاذيب، وعندما يتصرفون بشكل أخلاقي أو غير أخلاقي، وما إذا كانوا يتصرفون بمشاعر مثل الغضب والخوف والفرح، وكيفية جعلها أقل تحيزًا. . بحثت الورقة أيضًا في طرق تطوير أنظمة يمكنها مقاومة عمليات كسر الحماية، وهي ممارسة يمكن للمستخدمين من خلالها استغلال نقاط الضعف في أنظمة الذكاء الاصطناعي وربما استخدامها خارج البروتوكولات المرغوبة.
ما هو الذكاء الاصطناعي (AI)؟
وقال هندريكس: “يطور بحثنا طرقًا لقراءة الأفكار الداخلية لأنظمة الذكاء الاصطناعي، مما يسمح لنا باكتشاف متى تكذب أو تتعطل بطرق مختلفة”، مشيرًا إلى أن أنظمة الذكاء الاصطناعي الحالية “قادرة على الخداع وسوف تكذب أو تحاول خداع البشر إذا تم إعطاؤها”. سببا ل.”
وقال هندريكس: “لقد عرضنا أمثلة على ذلك في بحثنا، وقمنا بتطوير أدوات لرصد ومراقبة النشاط الداخلي لأنظمة الذكاء الاصطناعي لمنع حدوث ذلك”.
انقر هنا لمزيد من الأخبار الأمريكية
يشير CAIS إلى أن أنظمة الذكاء الاصطناعي الحديثة كانت صعبة الفهم على البشر، مما يجعل من الصعب أيضًا على المستخدمين فهم عملية صنع القرار في الذكاء الاصطناعي. وقد شارك الكونجرس هذه المخاوف أيضًا، مع زعيم الأغلبية في مجلس الشيوخ تشاك شومر، DN.Y. واصفًا قابلية شرح الذكاء الاصطناعي بأنها “واحدة من أهم وأصعب القضايا التقنية في الذكاء الاصطناعي بأكمله” في تصريحات ألقاها في مركز الدراسات الاستراتيجية والدولية في وقت سابق من هذا العام.
وقد ردد هندريكس هذه المخاوف، قائلاً إن أحد الجوانب المهمة في التطوير المستمر للذكاء الاصطناعي هو التأكد من أن البشر لديهم الأدوات اللازمة للتحكم في التكنولوجيا.
وقال هندريكس: “إننا نشكل نوعًا من المراقبة الداخلية لأنظمة الذكاء الاصطناعي، للتأكد من أنها لا تحاول خداعنا”. “يعد الخداع في الذكاء الاصطناعي مصدر قلق حقيقي، وأبحاثنا هي خطوة رئيسية نحو توفير الأدوات اللازمة لمنع هذه المخاطر.”