عندما جربت شركة المحاسبة الأربع الكبرى EY نظام ذكاء اصطناعي تم تدريبه على التعرف على الاحتيال في حسابات بعض عملاء التدقيق في المملكة المتحدة في وقت سابق من هذا العام، كانت النتائج مذهلة.
وفقا لكاث بارو، الشريك الإداري للتأمين في المملكة المتحدة وأيرلندا لشركة EY، اكتشف النظام الجديد نشاطًا مشبوهًا في اثنتين من الشركات العشر الأولى التي تم فحصها. وأكد العملاء في وقت لاحق أن كلتا الحالتين كانتا عملية احتيال.
يوضح هذا النجاح المبكر سبب اعتقاد البعض في الصناعة بأن الذكاء الاصطناعي لديه إمكانات كبيرة لتحسين جودة التدقيق وتقليل أعباء العمل. ويأملون أن توفر قدرة الأنظمة التي تعمل بالذكاء الاصطناعي على استيعاب وتحليل كميات هائلة من البيانات، أداة جديدة قوية لتنبيه المدققين إلى علامات المخالفات وغيرها من المشاكل.
ومع ذلك، يختلف المدققون بشكل حاد حول مدى قدرتهم على الاعتماد على التكنولوجيا التي لم يتم اختبارها بعد على نطاق واسع، وغالبا ما تكون غير مفهومة بشكل جيد.
تشك بعض شركات التدقيق في إمكانية تغذية أنظمة الذكاء الاصطناعي بما يكفي من المعلومات عالية الجودة للكشف عن الأشكال المتعددة والمختلفة المحتملة للاحتيال بشكل موثوق. هناك أيضًا بعض المخاوف بشأن خصوصية البيانات، إذا كان المدققون يستخدمون معلومات العميل السرية لتطوير الذكاء الاصطناعي.
تعني الأسئلة أن هناك اختلافات واضحة في النهج بين شركات التدقيق الكبرى في المملكة المتحدة. في حين رفضت شركة إي واي الكشف عن تفاصيل برنامجها أو طبيعة عمليات الاحتيال التي اكتشفتها، قال بارو إن النتائج تشير إلى أن التكنولوجيا لديها “أرجل” للتدقيق.
قالت: “يبدو أن هذا شيء يجب علينا تطويره أو استكشافه”.
مع ذلك، أشار سايمون ستيفنز، رئيس قسم الذكاء الاصطناعي في التدقيق والضمان في شركة ديلويت في المملكة المتحدة، وهي إحدى شركات التدقيق الأربع الكبرى، إلى أن عمليات الاحتيال كانت نادرة نسبيا وتميل إلى الاختلاف عن بعضها البعض. وهذا يعني أنه لم تكن هناك بالضرورة أنماط واضحة يمكن لأنظمة الذكاء الاصطناعي التقاطها.
“إن عمليات الاحتيال . . . قال ستيفنز: “إنها فريدة من نوعها ويتم ارتكاب كل منها بطريقة مختلفة قليلاً”. “بطبيعتها، فهي مصممة للتحايل على الضمانات من خلال استخدامات جديدة للتكنولوجيا أو استغلال نقاط الضعف الجديدة، والذكاء الاصطناعي لا يلعب بشكل جيد هناك في الوقت الحالي.”
ومن المرجح أن يكون للهيئات التنظيمية الكلمة الأخيرة بشأن كيفية نشر هذه التكنولوجيا. وقال جيسون برادلي، رئيس تكنولوجيا الضمان في مجلس التقارير المالية في المملكة المتحدة، وهو هيئة مراقبة التدقيق، إن الذكاء الاصطناعي يقدم فرصًا “لدعم تحسين جودة وكفاءة التدقيق” إذا تم استخدامه بشكل مناسب.
لكنه حذر من أن الشركات ستحتاج إلى الخبرة لضمان عمل الأنظمة وفقًا للمعايير الصحيحة. وقال: “مع نمو استخدام الذكاء الاصطناعي، يجب أن يتمتع المدققون بالمهارات اللازمة لنقد أنظمة الذكاء الاصطناعي، وضمان دقة استخدام المخرجات وقدرتهم على نشر الأدوات بطريقة متوافقة مع المعايير”.
في حين أنه يجب إخبار برامج التدقيق التقليدية بأنماط البيانات التي تشير إلى الاحتيال أو مشاكل أخرى، يتم تدريب أنظمة الذكاء الاصطناعي على اكتشاف المشكلات باستخدام التعلم الآلي والبيانات من العديد من حالات سوء السلوك المعروفة السابقة. وبمرور الوقت، ينبغي أن يصبحوا أفضل في القيام بذلك حيث يتراكم لديهم الخبرة.
يمكن أن تكون التكنولوجيا مفيدة بشكل خاص إذا كانت تقلل من أعباء عمل المراجع. تكافح الشركات في جميع أنحاء العالم لتدريب وتوظيف الموظفين. ويمكن أن يساعد أيضا في رفع المعايير: في الأعوام الأخيرة، أغفل المدققون مشاكل مالية خطيرة تسببت في انهيار الشركات، بما في ذلك شركة كاريليون التي تعتمد على مصادر خارجية، ومتاجر التجزئة BHS، وسلسلة المقاهي باتيسيري فاليري.
تجربة إي واي، وفقا لبارو، استخدمت أداة للتعلم الآلي تم تدريبها على “الكثير والكثير من مخططات الاحتيال”، المستمدة من المعلومات المتاحة للجمهور والحالات السابقة التي تورطت فيها الشركة. وبينما تبحث البرامج الحالية المستخدمة على نطاق واسع عن المعاملات المشبوهة، قالت EY إن نظامها المدعوم بالذكاء الاصطناعي أكثر تعقيدًا. وقد تم تدريبه على البحث عن المعاملات المستخدمة عادةً للتغطية على عمليات الاحتيال، بالإضافة إلى المعاملات المشبوهة نفسها. وقالت الشركة إنها اكتشفت مخططي الاحتيال لدى عملاء التجربة الأولية العشرة لأنه كانت هناك أنماط مماثلة في بيانات التدريب.
وقالت بارو عن نظام الذكاء الاصطناعي، الذي وصفته بأنه “الطيار المساعد” للمدققين: “كل ما يفعله هو القول: هذا شيء يجب عليك استكشافه بشكل أكبر”. “إنه يركز جهودنا لفهم المزيد.”
ومع ذلك، تشك شركات أخرى في أن أنظمة الذكاء الاصطناعي ذكية بما يكفي للكشف عن عمليات الاحتيال المعقدة. رددت شركة كيه بي إم جي في المملكة المتحدة، وهي شركة تدقيق أخرى من الشركات الأربع الكبرى، مخاوف ستيفنز في شركة ديلويت.
وقالت شركة KPMG: “إن الاحتيال بطبيعته لا يمكن التنبؤ به، وبالتالي فإن استخدام حالات الاحتيال المعروفة لتدريب نماذج التعلم الآلي يمثل تحديًا”.
واعترف ستيفنس بأن التكنولوجيا لها استخداماتها في التدقيق. لكنه رأى دورًا محدودًا جدًا لها. وقال: “يمكن للذكاء الاصطناعي أتمتة بعض المهام الأكثر دنيوية والمتكررة، ويسمح للمدققين لدينا بالتركيز على المجالات الأكثر تعرضًا للخطر”.
تعمل شركة Deloitte حاليًا على تقييد استخدام الذكاء الاصطناعي في المهام الأقل تعقيدًا، حيث توفر تعليمات واضحة حول أنواع الحالات الشاذة التي يجب البحث عنها في حسابات الشركة.
وقال ستيفنز إن إحدى المشكلات هي أن الشركة قد تعتبر بياناتها المالية التفصيلية بمثابة معلومات خاصة. وهذا من شأنه أن يجعل من الصعب استخدام تلك المعلومات الخاصة لتدريب نظام يقوم بعد ذلك بمراجعة شركة أخرى.
وقال: “يجب على أي شخص يقوم بتطوير الذكاء الاصطناعي أن يدرك ذلك”.
واعترف بارو بوجود تحديات. وقالت إنه من الضروري أن يفهم المدققون كيفية عمل ترميز نظام الذكاء الاصطناعي، والمعنى الحقيقي للنتائج التي ينتجها، وطبيعة البيانات التي تم استخدامها لتدريبه.
“نحن بحاجة إلى استكماله بـ . . . قالت: “تطبيق عدسة التدقيق هذه للتشكيك، حتى نتمكن من توضيح أنها مناسبة للغرض”.
كما أدركت أيضًا المشكلة المتعلقة باستخدام معلومات الشركة الخاصة لتدريب أنظمة الذكاء الاصطناعي. لكنها قالت إن هناك ما يكفي من المعلومات المتاحة للعامة لتكملة أعمال EY الخاصة وتوفير تدريب مفيد لأنظمة الذكاء الاصطناعي الخاصة بالشركة.
وقال بارو: “لقد تم تطبيق التكنولوجيا بالفعل بشكل كبير لمساعدتنا في تقييم المخاطر وتحديد المخاطر”. “سيكون الذكاء الاصطناعي على نحو متزايد أداة أخرى تحت تصرفنا للقيام بذلك.”