شفافية الذكاء الاصطناعيآخر تحديث: May 2026

شفافية الذكاء الاصطناعي وإخلاء المسؤولية

كيف يستخدم AskdwinAI الذكاء الاصطناعي وما الذي يجب على المستخدمين فهمه قبل الاعتماد على النتائج.

تم تحديث هذه المسودة الموجهة لألمانيا ببيانات الشركة التي قدمتها، ومع ذلك يُنصح بمراجعة قانونية قبل الاعتماد عليها في بيئة الإنتاج.

كيف يُستخدم الذكاء الاصطناعي

  • يستخدم AskdwinAI نماذج ذكاء اصطناعي لتصنيف المحتوى المشبوه وتحديد مؤشرات الاحتيال واقتراح الخطوات التالية.
  • قد يعالج النظام النصوص الملصقة ولقطات الشاشة المرفوعة والروابط وأرقام الهاتف والنص الظاهر المستخرج من الصور.
  • ينبغي توثيق مزودي النماذج وسلسلة المعالجة الفعلية المستخدمة في الإنتاج بوضوح.

حدود النتائج

  • النتائج احتمالية وقد تتضمن إنذارات كاذبة أو حالات لم تُكتشف أو تفسيراً غير مكتمل.
  • لا تُعد أي نتيجة مشورة قانونية أو اعتماداً أمنياً أو بديلاً عن قنوات الإبلاغ الرسمية.
  • القرارات التي تتعلق بالمال أو الهوية أو كلمات المرور أو البلاغات الرسمية تتطلب مراجعة بشرية.

التدريب والاستخدام المقيد والمراجعة البشرية

  • قد تُستخدم مدخلات المستخدمين في تدريب النماذج وتحسين الجودة والمراجعة اليدوية المرتبطة بأداء كشف الاحتيال.
  • وبما أن المدخلات تُستخدم للتدريب، فيجب توثيق الأساس القانوني وصياغة الشفافية وأي آلية للموافقة أو الاعتراض بوضوح في الإنتاج.
  • لا يجوز استخدام AskdwinAI كأساس وحيد لاتخاذ قرارات آلية ذات أثر قانوني مهم.
تبرع