يحذر أحد الخبراء من أن الذكاء الاصطناعي – على وجه التحديد نماذج اللغات الكبيرة مثل ChatGPT – يمكنه نظريًا إعطاء المجرمين المعلومات اللازمة لتغطية مساراتهم قبل الجريمة وبعدها ، ثم محو تلك الأدلة.
تشكل نماذج اللغات الكبيرة ، أو LLMs ، جزءًا من تقنية الذكاء الاصطناعي التي تستخدم خوارزميات يمكنها التعرف على النصوص والمحتويات الأخرى وتلخيصها وترجمتها والتنبؤ بها وإنشاءها بناءً على المعرفة المكتسبة من مجموعات البيانات الضخمة.
ChatGPT هي أشهر ماجستير في إدارة الأعمال ، وقد تسبب تطورها السريع والناجح في إثارة عدم الارتياح بين بعض الخبراء وأثارت جلسة استماع في مجلس الشيوخ للاستماع إلى Sam Altman ، الرئيس التنفيذي لشركة OpenAI ، صانع ChatGPT ، الذي دفع من أجل الإشراف.
تعمل شركات مثل Google و Microsoft على تطوير الذكاء الاصطناعي بوتيرة سريعة. ولكن عندما يتعلق الأمر بالجريمة ، فإن هذا ليس ما يخيف الدكتور هارفي كاسترو ، طبيب الطوارئ المعتمد من مجلس الإدارة والمتحدث الوطني في مجال الذكاء الاصطناعي الذي ابتكر ماجستير القانون الخاص به المسمى “شيرلوك”.
أول رئيس لجامعة الذكاء الاصطناعي في العالم يقول إن التكنولوجيا ستؤدي إلى تعطيل تعدادات التعليم ، وإنشاء “ طلاب جدد ”
وقال إنه “الشخص عديم الضمير البالغ من العمر 18 عامًا” يمكنه إنشاء LLM الخاصة به دون حواجز الحماية والحماية وبيعها للمجرمين المحتملين.
قال كاسترو: “أحد أكبر مخاوفي ليس في الواقع اللاعبين الكبار ، مثل Microsoft أو Google أو OpenAI ChatGPT”. “أنا في الواقع لست قلقًا للغاية بشأنهم ، لأنني أشعر أنهم ينظمون أنفسهم بأنفسهم ، وأن الحكومة تراقبهم والعالم يراقبونهم والجميع سوف ينظمونهم.
“أنا في الواقع أكثر قلقًا بشأن هؤلاء المراهقين أو أي شخص موجود هناك للتو ، يكون قادرًا على إنشاء نموذج لغوي كبير خاص به لا يلتزم باللوائح ، ويمكنه حتى بيعه في السوق السوداء. أنا أنا قلق حقًا بشأن ذلك باعتباره احتمالًا في المستقبل “.
ما هو الذكاء الاصطناعي؟
في 25 أبريل ، قال موقع OpenAI.com إن أحدث طراز من ChatGPT سيكون لديه القدرة على إيقاف تشغيل سجل الدردشة.
قال موقع OpenAI.com في إعلانه: “عندما يتم تعطيل سجل الدردشة ، سنحتفظ بالمحادثات الجديدة لمدة 30 يومًا ونراجعها فقط عند الحاجة إلى مراقبة إساءة الاستخدام ، قبل حذفها نهائيًا”.
شاهد د. HARVEY CASTRO يشرح ويظهر له ماجستير في القانون “SHERLOCK”
وحذر كاسترو من أن القدرة على استخدام هذا النوع من التكنولوجيا ، مع تعطيل سجل الدردشة ، يمكن أن تكون مفيدة للمجرمين وإشكالية للمحققين. لوضع المفهوم في سيناريوهات العالم الحقيقي ، خذ قضيتين جنائيتين جاريتين في أيداهو وماساتشوستس.
وصف رئيس OPENAI ألتمان ما يعنيه الذكاء الاصطناعي “المخيف” بالنسبة له ، لكن الدردشة لها أمثلة خاصة بها
كان بريان كوهبيرغر يسعى للحصول على درجة الدكتوراه. في علم الجريمة عندما زُعم أنه قتل أربعة طلاب جامعيين من جامعة أيداهو في نوفمبر 2022. وصفه الأصدقاء والمعارف بأنه “عبقري” و “ذكي حقًا” في مقابلات سابقة مع Fox News Digital.
في ولاية ماساتشوستس ، هناك حالة براين والش ، الذي يُزعم أنه قتل زوجته ، آنا والش ، في يناير وتخلص من جسدها. تم بناء قضية القتل ضده على أدلة ظرفية ، بما في ذلك قائمة غسيل لعمليات البحث المزعومة على Google ، مثل كيفية التخلص من جثة.
تمت الإشارة إلى برايان كوبرجر في حالات قتل طلاب أيداهو
يخشى كاسترو أن يقوم شخص يتمتع بخبرة أكبر من كوهبرغر بإنشاء محادثة بالذكاء الاصطناعي ومحو سجل البحث الذي قد يتضمن أدلة حيوية في قضية مثل تلك التي تم رفعها ضد والش.
قال كاسترو: “عادةً ما يتم القبض على الأشخاص وهم يستخدمون Google في تاريخهم”. “ولكن إذا قام شخص ما بإنشاء LLM الخاصة به وسمح للمستخدم بطرح الأسئلة مع إخباره بعدم الاحتفاظ بسجل لأي من هذا ، في حين يمكنه الحصول على معلومات حول كيفية قتل شخص وكيفية التخلص من الجسد.”
في الوقت الحالي ، يرفض ChatGPT الإجابة على هذه الأنواع من الأسئلة. إنه يحظر “أنواعًا معينة من المحتوى غير الآمن” ولا يجيب على “الطلبات غير الملائمة” ، وفقًا لـ OpenAI.
ما هو تاريخ الذكاء الاصطناعي؟
خلال شهادة مجلس الشيوخ الأسبوع الماضي ، أخبر ألتمان المشرعين أن GPT-4 ، أحدث طراز ، سيرفض الطلبات الضارة مثل المحتوى العنيف والمحتوى المتعلق بإيذاء الذات ومحتوى البالغين.
قال ألتمان ، الذي ناقش أيضًا الضمانات الأخرى مثل قيود العمر ، “لا نعتقد أن محتوى البالغين ضار بطبيعته ، ولكن هناك أشياء يمكن أن ترتبط بذلك ولا يمكننا التفريق بينها بشكل كافٍ. لذلك نحن نرفض كل ذلك”.
قال ألتمان ردًا على أسئلة أحد أعضاء مجلس الشيوخ حول القواعد التي ينبغي تنفيذها: “سأضع مجموعة من معايير السلامة تركز على ما قلته في فرضيتك الثالثة كتقييمات القدرة الخطرة”.
أدوات الذكاء الاصطناعي التي يستخدمها رجال الشرطة الذين “لا يفهمون كيفية عمل هذه التقنيات”: الدراسة
“أحد الأمثلة التي استخدمناها في الماضي هو البحث لمعرفة ما إذا كان يمكن للنموذج أن يكرر نفسه بنفسه ويبيع التسرب إلى البرية. يمكننا أن نمنح مكتبك قائمة طويلة أخرى بالأشياء التي نعتقد أنها مهمة هناك ، ولكن اختبارات محددة يجب أن يجتازها النموذج قبل نشره في العالم.
“ثم ثالثًا ، سأطلب عمليات تدقيق مستقلة. لذلك ليس فقط من الشركة أو الوكالة ، ولكن الخبراء الذين يمكنهم القول أن النموذج يتوافق أو لا يمتثل لحدود الأمان المذكورة وهذه النسب المئوية للأداء في السؤال X أو Y. “
قال كاسترو لوضع المفاهيم والنظرية في منظورها الصحيح ، “أعتقد أن 95٪ من الأمريكيين لا يعرفون ما هي LLMs أو ChatGPT ،” ويفضل أن يكون الأمر كذلك.
الذكاء الاصطناعي: أسئلة متكررة حول الذكاء الاصطناعي
لكن هناك احتمال أن تصبح نظرية كاسترو حقيقة في المستقبل غير البعيد.
وألمح إلى مشروع أبحاث الذكاء الاصطناعي الذي تم إنهاؤه الآن من قبل جامعة ستانفورد ، والذي أطلق عليه اسم “الألبكة”.
ابتكرت مجموعة من علماء الكمبيوتر منتجًا تكلفته أقل من 600 دولار ، وكان له “أداء مشابه جدًا” لطراز OpenAI GPT-3.5 ، وفقًا لإعلان الجامعة الأولي ، وكان يعمل على أجهزة كمبيوتر Raspberry Pi وهاتف Pixel 6 الذكي.
ما هي مخاطر الذكاء الاصطناعي؟ اكتشف سبب خوف الناس من الذكاء الاصطناعي
على الرغم من نجاحه ، أنهى الباحثون المشروع ، مشيرين إلى مخاوف تتعلق بالترخيص والسلامة. وقال الباحثون في بيان صحفي إن المنتج لم “مصمم بإجراءات سلامة كافية”.
“نؤكد أن الألبكة مخصصة فقط للبحث الأكاديمي وأي استخدام تجاري محظور ،” وفقًا للباحثين. “هناك ثلاثة عوامل في هذا القرار: أولاً ، تستند Alpaca على LLaMA ، التي لديها ترخيص غير تجاري ، لذلك نحن بالضرورة نرث هذا القرار.”
ذهب الباحثون ليقولوا إن بيانات التعليمات تستند إلى نص OpenAI’s davinci-003 ، “الذي تحظر شروط استخدامه تطوير النماذج التي تتنافس مع OpenAI. وأخيرًا ، لم نصمم إجراءات أمان كافية ، لذا فإن Alpaca ليست جاهزة للنشر للاستخدام العام “.
لكن إبداع ستانفورد الناجح يثير الخوف في نظرة كاسترو نصف الزجاجية الكاملة لكيفية قيام OpenAI و LLMs بتغيير البشرية.
قال كاسترو: “أميل إلى أن أكون مفكرا إيجابيا ، وأعتقد أن كل هذا سيتم من أجل الخير. وآمل أن الشركات الكبرى ستضع حواجز الحماية الخاصة بها في مكانها وتنظم نفسها بنفسها. “