احصل على تحديثات مجانية للتكنولوجيا المالية
سوف نرسل لك أ ميفت ديلي دايجست البريد الإلكتروني تقريب الأحدث التكنولوجيا المالية أخبار كل صباح.
أنت يمكن لقد لاحظت ذلك، لكن الذكاء الاصطناعي التوليدي يعد موضوعًا ساخنًا في الوقت الحالي. وصناعة الاستثمار – التي لم تشهد قط بدعة تم الترويج لها على نطاق واسع ولم تعجبها – بدأت في ذلك.
والحقيقة هي أن مديري الأموال الكمية والمتداولين عاليي التردد يستخدمون “الذكاء الاصطناعي” منذ بعض الوقت. التعلم الآلي، على سبيل المثال، مفيد للتنبؤ بأنماط التداول، في حين أن استخدام معالجة اللغة الطبيعية لتحليل كعكة الشركات والبنوك المركزية أمر بالغ الأهمية.
لكن وحدة التحليل الكمي AHL التابعة لشركة Man Group نشرت الآن نظرة عامة مثيرة للاهتمام حول مشهد الذكاء الاصطناعي التوليدي الذي يستكشف كيف يمكن أن يؤثر على صناعة إدارة الأصول. ومن غير المستغرب أن تكون الإمكانات هي الأكبر في تحليل اللغة:
في مجال إدارة الأصول، تشير الدلائل المبكرة إلى أن ماجستير إدارة الأعمال يمكنه إجراء تحليل أفضل للمشاعر مقارنة بأساليب BERT التقليدية والقاموس. تشير بعض النتائج الأولية إلى أن ChatGPT يظهر فهمًا محسنًا للغة المالية مقارنة بنماذج مثل BERT، لمهام مثل ترجمة Fedspeak. BloombergGPT، وهو برنامج LLM قائم على GPT تم تدريبه جزئيًا على البيانات المالية الشاملة لشركة Bloomberg، يُظهر أيضًا كيف يمكن لمجموعة بيانات التدريب الخاصة بالتمويل أن تزيد من تحسين قدرات تحليل المشاعر المالية. هناك طريقة أخرى لاستخدام LLM وهي استخراج تضمينات الكلمات الخاصة بها من نص الإدخال (أي المتجه العددي لكيفية تمثيل النموذج للنص) واستخدامها كميزات في نموذج الاقتصاد القياسي للتنبؤ بالمشاعر (أو حتى العوائد المتوقعة).
. . . وتشمل التطبيقات الأخرى القائمة على اللغة في إدارة الأصول إنتاج ملخصات واستخراج المعلومات من المستندات النصية الكبيرة، بالإضافة إلى الاستثمار المواضيعي. أظهرت دراسة حديثة أن ChatGPT قادر على تلخيص محتويات إفصاحات الشركات بشكل فعال، بل ويعرض القدرة على إنتاج ملخصات مستهدفة خاصة بموضوع معين. حالة استخدام أخرى لـ LLMs هي قدرتها على تحديد الروابط بين الموضوعات المفاهيمية وأوصاف الشركة لإنشاء سلال مواضيعية من الأسهم.
ومن المثير للاهتمام أن المؤلف – مارتن لوك، الباحث الكمي في AHL – يشير أيضًا إلى أنه يمكن أن يكون مفيدًا في توليد بيانات مالية افتراضية اصطناعية. قد يبدو هذا غريبًا بعض الشيء، لكنه قد يكون مفيدًا جدًا.
واحدة من أكبر المشاكل في quantland هي أن لديك مجموعة بيانات واحدة فقط للعمل بها – أي ما لديها حدث بالفعل في الأسواق. بينما في العلوم الشرعية الفعلية، يمكنك إجراء تجارب متعددة لتوليد مجموعة من البيانات.
هناك بعض المخاطر الواضحة في استخدام البيانات المالية المحاكاة (على سبيل المثال، تغيير بعض المعايير الاقتصادية أو ببساطة إدخال بعض العشوائية)، لكن ألفافيل تعرف أن بعض صناديق التحوط الكمية الأكثر تطورا تعمل الآن بنشاط على تدريب بعض نماذجها على ذلك. هنا لوك:
خارج LLMs، تعد شبكات GAN (شبكات الخصومة التوليدية) نوعًا آخر من نماذج الذكاء الاصطناعي التوليدي التي يمكنها إنشاء بيانات سلاسل زمنية مالية اصطناعية. أظهرت الدراسات أن شبكات GAN قادرة على إنتاج بيانات الأسعار التي تظهر بعض الحقائق المبسطة التي تعكس البيانات التجريبية (مثل التوزيعات التفصيلية وتجميع التقلبات)، مع أحدث التطبيقات بما في ذلك استخدام شبكات GAN في تقدير مخاطر الذيل (عن طريق توليد سيناريوهات ذيل اصطناعية واقعية). كما تم استخدام شبكات GAN أيضًا في إنشاء المحفظة وضبط المعلمات الفائقة للإستراتيجية، وكذلك في إنشاء بيانات دفتر الطلبات الاصطناعية.
ومع ذلك، فإن النقطة الأكثر إثارة للاهتمام هي حول ميل الذكاء الاصطناعي التوليدي إلى “الهلوسة” – عندما تشكل نماذج اللغات الكبيرة في الأساس أشياء تبدو معقولة ولكنها غير صحيحة (مثل اختراع قضايا قانونية).
في جوهر الأمر، يهلوس طلاب ماجستير إدارة الأعمال لأنهم ببساطة مدربون على التنبؤ باستمرار “معقول إحصائيًا” للمدخلات (ولهذا السبب تبدو مخرجاتهم مقنعة تمامًا ظاهريًا). لكن ما هو أكثر معقولية من الناحية الإحصائية على المستوى اللغوي ليس بالضرورة صحيحًا من الناحية الواقعية، خاصة إذا كان يتضمن حسابات أو تفكيرًا منطقيًا من نوع ما. يمكن القول، على الرغم من القدرات المثبتة للماجستير في القانون، من الصعب تبرير أنهم “يفهمون ما يعنيه” عندما يقدمون إجابة على سؤال: من المعروف أن ChatGPT (باستخدام GPT3.5) يكافح عندما يُطلب منه كتابة خمس جمل تنتهي بـ حرف أو كلمة معينة. في الواقع، بافتراض أن هناك استمرارًا “صحيحًا” واحدًا فقط لعبارة ما، حتى لو كان الاستمرار الصحيح هو الأكثر احتمالًا، فمن الشائع أن يقوم طلاب LLM بأخذ عينات عشوائية من توزيع الاستمرارات وبالتالي يكون لديهم فرصة لاختيار “غير صحيح”. استمرار. علاوة على ذلك، ليس هناك ما يضمن أن الاستمرارية الأرجح هي الصحيحة من الناحية الواقعية، خاصة إذا كانت هناك طرق متعددة لإتمامها بشكل صحيح.
تتضمن الورقة هنا مسألة رياضية أخطأ فيها ChatGPT، الأمر الذي من شأنه أن يجعل أي محلل كمي حذرًا من استخدامها.
تتفاقم مشكلة الهلوسة بسبب الطريقة التي يستنتج بها معظم طلاب ماجستير اللغة الإنجليزية من كلمة واحدة في كل مرة، ويتم تدريبهم إلى حد كبير على العقل البشري عبر الإنترنت، والذي يكون في بعض الأحيان فهم ضعيف للواقع.
نظرًا لأنه “يلتزم” بكل رمز يتم إنشاؤه، فيمكنه غالبًا البدء في إنشاء جملة لا يعرف كيفية إكمالها. على سبيل المثال، قد يبدأ عبارة بـ “بلوتو هو” متبوعة بكلمة “الأصغر” كاستمرار معقول (نظرًا لأن بلوتو كان أصغر كوكب). ومع ذلك، بمجرد إنشاء عبارة “بلوتو هو الأصغر”، يصعب إكمالها بشكل صحيح، ويكملها GPT-4 بشكل غير صحيح حيث أن “بلوتو هو أصغر كوكب قزم في نظامنا الشمسي” (حيث في الواقع، بلوتو هو الكوكب القزم الأصغر في نظامنا الشمسي). ثاني أكبر كوكب قزم في نظامنا الشمسي بعد إيريس)
إن فكرة كون بلوتو أصغر كوكب تثير أيضًا التمييز بين الإخلاص والواقعية. الإخلاص هو ببساطة الحفاظ على الاتساق والصدق مع المصدر المقدم، في حين تعتبر الوقائع “صحة واقعية” أو “المعرفة العالمية”. ربما تكون LLM قد صادفت مصادر أثناء تدريبها ذكرت بشكل غير صحيح أن بلوتو هو أصغر كوكب، إما لأنها قديمة، أو لأنها جاءت من مصادر غير دقيقة/خيالية. نظرًا لأن المواد التدريبية الخاصة بـ LLM هي بشكل عام أجزاء كبيرة من الإنترنت، فإن جودة استجابات LLM خاصة في موضوعات متخصصة للغاية يمكن أن تكون غير صحيحة لأن نوع النص الذي يتم تخزين المعرفة “الصحيحة” فيه (على سبيل المثال، الكتب المدرسية والأوراق الأكاديمية) قد لا يكون كذلك. بالضرورة أن تكون حاضرة في مجموعات الإنترنت المتاحة للجمهور.
بطريقة ما، لا نعتقد أن هؤلاء الحاصلين على ماجستير إدارة الأعمال سيحصلون على وظيفة في Jane Street.
قراءة متعمقة
— الذكاء الاصطناعي التوليدي سيكون رائعًا لمستشاري الذكاء الاصطناعي التوليدي
– الذكاء الاصطناعي هو الحوكمة البيئية والاجتماعية والحوكمة الجديدة