سياسة الذكاء الاصطناعي

آخر تحديث: 1 يوليو 2025

تحدد هذه السياسة ("سياسة الذكاء الاصطناعي") منهج شركة بليند لاب (م.م.ح)، الكيان القانوني المالك والمشغل لمنصة دارفن (المتاحة عبر app.darven.ai) ("الخدمة")، في تطوير وتطبيق تقنيات الذكاء الاصطناعي ("الذكاء الاصطناعي") في سياق هذه الخدمة.

تهدف سياسة الذكاء الاصطناعي إلى تعزيز الشفافية بشأن ممارسات دارفن والمبادئ الأساسية التي تعتمدها عند استخدام تقنيات الذكاء الاصطناعي، بما يشمل الامتثال للقوانين المعمول بها، والاستخدام المسؤول، ومصادر البيانات، والتدابير الفنية والتنظيمية، والوضوح في التفاعل مع المستخدمين.

تعكس هذه السياسة التزام دارفن بتطوير تقنيات ذكاء اصطناعي موثوقة تدعم المتخصصين في المجال القانوني، مع احترام الخصوصية والأخلاقيات والمتطلبات التنظيمية في مختلف الاختصاصات القضائية.

يجوز لشركة بليند لاب تعديل أو تحديث هذه السياسة من وقت لآخر بما يعكس تغيّرات في التشريعات أو التكنولوجيا أو أفضل الممارسات في الصناعة.

يجب قراءة هذه السياسة بالتوازي مع [سياسة الاستخدام المقبول] و[ملحق الأمان] المتوفرة على www.darven.ai/legal.


1. الامتثال للقوانين
وفقًا لنطاق تقديم الخدمة، تلتزم دارفن بجميع القوانين واللوائح المحلية والدولية ذات الصلة بتطوير وتشغيل الذكاء الاصطناعي، بما في ذلك:

  • قانون الذكاء الاصطناعي في الاتحاد الأوروبي (اللائحة (EU) 2024/1689).

  • قوانين دولة الإمارات العربية المتحدة المتعلقة بالأخلاقيات الرقمية، وحماية البيانات، والأمن السيبراني.

  • ميثاق الإمارات لتطوير واستخدام الذكاء الاصطناعي الصادر في 10 يونيو 2024، والذي يتضمن 12 مبدأً أساسياً تشمل السلامة، العدالة، الشفافية، الخصوصية، والإشراف البشري.

تتابع دارفن المستجدات القانونية في مختلف الدول وتقوم بتحديث ممارساتها بما يتناسب مع هذه التطورات.


2. الثقافة التقنية والاستخدام المسؤول
تلتزم دارفن بالاستخدام الأخلاقي والمسؤول لتقنيات الذكاء الاصطناعي، مع التأكيد على دور الذكاء الاصطناعي في دعم لا لاستبدال الخبرة القانونية البشرية. ونؤكد ما يلي:

  • تحافظ فرقنا التقنية والتشغيلية على مستوى مناسب من الإلمام بالذكاء الاصطناعي.

  • تخضع جميع الميزات المدعومة بالذكاء الاصطناعي لمراجعات داخلية أخلاقية.

  • يتم تصميم المخرجات لدعم التقدير المهني القانوني، لا لاستبداله.

  • تتم مراقبة المخاطر المحتملة الناتجة عن مخرجات الذكاء الاصطناعي بشكل مستمر والعمل على الحد منها.


3. مصادر البيانات
تضمن دارفن أن جميع مجموعات البيانات المستخدمة في تفعيل قدرات الذكاء الاصطناعي يتم الحصول عليها بشكل قانوني وبترخيص مناسب. ونقوم بتطبيق الضمانات التالية:

  • التحقق من توافق مصادر البيانات مع القوانين والمبادئ الأخلاقية.

  • احترام حقوق الملكية الفكرية ومتطلبات الموافقة.

  • تجنّب الاعتماد على مصادر بيانات غير مؤكدة أو منحازة.

فيما يخص البيانات الخاصة بالمؤسسات (مثل المستندات المحمّلة إلى قواعد معرفة مخصصة لكل شركة)، لا تستخدم دارفن هذه البيانات في تدريب نماذج الذكاء الاصطناعي، ويتم حصر الوصول إليها ضمن بيئة المؤسسة المعنية فقط.

تُطبّق دارفن إجراءات معيارية معقولة للتحقق من قانونية وملاءمة مصادر البيانات. ومع أننا نسعى للامتثال، تبقى المسؤولية النهائية عن المحتوى الذي يوفره طرف ثالث على عاتق مزوّد أو مستخدم البيانات.


4. التدابير الفنية والتنظيمية
تعتمد دارفن مجموعة من الضوابط الفنية والتنظيمية لضمان تشغيل الذكاء الاصطناعي بشكل آمن وأخلاقي، ومن بينها:

  • سياسات داخلية لتنظيم تطوير ونشر تقنيات الذكاء الاصطناعي.

  • تقنيات تشفير، وأنظمة تحكم في الوصول، وآليات مراقبة (راجع [ملحق الأمان]).

  • اختبارات دورية لتقييم دقة وموثوقية ومشروعية مخرجات الذكاء الاصطناعي.

  • إجراءات منظمة لإدارة التغييرات تضمن استمرار الامتثال للمعايير والقوانين المطبقة.


5. الشفافية
اعتمدت دارفن إجراءات واضحة تساعد المستخدمين على تمييز التفاعل مع الذكاء الاصطناعي، وتشمل:

  • وضع إشارات واضحة للمخرجات المُنتجة من قبل الذكاء الاصطناعي ضمن الواجهة.

  • استخدام إشارات مرئية خلال التفاعل مع مساعد الذكاء الاصطناعي.

  • دعم إظهار تنبيهات للمستخدم عند الاقتضاء (مثل: "تم إنشاؤه بواسطة الذكاء الاصطناعي – لا يُعد استشارة قانونية").

تتماشى هذه الممارسات مع مبادئ الشفافية والإشراف البشري المنصوص عليها في ميثاق الإمارات للذكاء الاصطناعي.


تواصل دارفن التزامها بتطوير وتقديم حلول ذكاء اصطناعي بطريقة آمنة، وأخلاقية، ومتوافقة مع توقعات المستخدمين والأطر القانونية.


الكيان القانوني: شركة بليند لاب (م.م.ح)
المنصة: دارفن – www.darven.ai
للتواصل بخصوص هذه السياسة أو الاستفسارات القانونية: legal@darven.ai
الاختصاص القضائي: دولة الإمارات العربية المتحدة